G7, AI 리스크 인식 공유, ‘공동 규제’ 난항, 규제 분단 우려도 본문듣기
작성시간
관련링크
본문
미국 민간 기업 Open AI사가 처음 소개한 생성형 인공지능 챗 봇 서비스인 ‘Chat GPT’의 출현으로 인공지능(AI)의 진화가 새로운 단계에 접어들었다. 인간들의 질문에 똑똑하게 응답하는 등, 고도의 대화 능력을 갖추고 있어 충격을 주고 있다. Microsoft도 검색 엔진에 Open AI의 기술을 도입하기로 하는가 하면, Google도 독자의 대화 AI를 개발하는 등 관련 기술 경쟁 각축전도 가열되는 양상이다. 한편, 이미 많은 선진 각국에서는 각종 ‘챗 GPT’ 응용 프로그램이 검색, 기업 경영, 교육 등, 사회 각 분야에 활용되면서 거의 일반화 수준으로 확산하는 중이다.
이렇게, 인간이 만들어낸 AI가 인간들의 의사소통의 근간이 되는 언어 능력 및 창의(創意) 분야까지 진출하게 되자 이에 따른 ‘혜택’과 함께 ‘위협’에 대한 논의도 활발해지기 시작했다. 특히, ‘생성 AI(generative AI)’의 활용에 관한 새로운 규제 룰(rule) 마련을 위한 논의가 가속하고 있다. 아직 규제 방법과 관련해서 새로 법률을 제정할지 기존 룰을 적용하는데 그칠지 확실한 글로벌 추세가 형성되지 않고 있으나, EU에서는 금년 내에 새로운 규제 법률을 제정한다는 목표를 제시했다.
마침, 일본에서 열린 G7 디지털 기술 장관회의에서도 이와 관련한 논의가 진행됐고 참석한 각국 장관들은 30일 폐막에 맞춰서 AI의 안전 활용 방침을 포함한 ‘장관선언’을 채택했다. 이제 각국은 급속히 보급되는 생성 AI의 적절 활용을 위한 규제 방향을 획정해야 할 시기에 당도한 것이다. 아래에, ‘챗 GPT’의 안전 활용과 관련한 각국의 최근 규제 움직임을 日 Nikkei 보도 내용을 중심으로 요약한다.
■ “G7 장관들, AI 관련 리스크 인식 공유, ‘안전 활용 5 원칙’ 합의”
일본 군마(群馬)현 다카사키(高崎)시에서 29~30일 열린 G7 디지털 기술 장관회의는 최근 각국에 중요 과제로 부상 중인 인공지능(AI) 활용에 따른 리스크에 관해 논의했고 참석 장관들은 30일 폐막과 함께 AI의 안전 활용 방안을 주요 내용으로 하는 ‘장관 선언’을 채택했다. 이 선언에는 “민주주의 가치를 훼손하고, 표현의 자유를 억압하고, 인권을 위협하는 AI 악용에 반대한다”고 명기했다. 아울러, 각국의 규제 룰이 각양각색인 점을 인식하고 향후 협조를 위한 행동 계획도 합의했다.
이는, 전세계에서 문서 작성이나 화면 창작에 활용이 확대되고 있는 생성 AI 이용과 관련해서 향후 G7이 협조해서 대응한다는 자세를 시사한 것으로, 중요한 의미를 갖는 것으로 여겨진다. 생성 AI는 기본적으로 인터넷을 통해 수집한 정보를 활용해서 기계 학습을 통해 이용자의 요구에 응답하는 수단으로, 경우에 따라서는 잘못된 정보를 확산하거나 오류나 차별을 조장할 우려가 제기되는 상황이다.
이를 배경으로, 이번 G7 관련 장관회의에서는 AI 리스크를 평가하는 국제 기준이 마련되면 공통 기준에 기반해서 상호 비교 가능한 형태로 AI 시스템에 대한 기회와 과제들을 평가하는 것이 가능하게 될 것이라는 인식을 공유했다. 이를 바탕으로, 생성 AI에 대한 대응책을 논의하고 금년 내에 개발 및 활용에 관한 지침을 문서로 마련한다는 방침도 확인했다. 이를 위해, 각국이 AI를 포함한 신기술을 적절하게 이용하기 위한 5개 원칙에도 합의했다. 즉, ① 법의 지배, ② 적정한 절차 준수, ③ 이노베이션 기회의 활용, ④ 민주주의, ⑤ 인권 존중, 등 5개 항목이다.
■ “미 · EU · 일본 간에 ‘공동 룰’ 마련 난항, ‘규제 분단’ 우려 여전”
日 Nikkei는 이번에 열린 G7 디지털 기술 장관회의는 활발한 논의 끝에 각국이 “책임 있는 AI 활용”을 위한 결속(結束)을 우선했다고 전했다. 회의에서 채택한 공동 선언에서는 AI의 개발, 이용 및 활용에 있어서 ‘민주주의 및 인권을 지키는’ 자세를 강조해서 시민들에 대한 감시 및 여론 조작에 악용될 여지를 배격함으로써 중국, 러시아 등을 염두에 두고 G7 각국이 이들을 견제하는 모습을 드러냈다.
한편, G7 각국은 오(誤)정보 및 편견을 살포하는 AI를 배제해야 한다는 것에는 이론이 없는 것으로 알려진다. 이에 대한 적절한 규제가 필요하다는 인식도 공유했다. 그러나, 각국의 규제에 대한 인식의 차이는 여전히 커서 규제를 위한 공동 룰(rule)을 마련하기 위한 구체적인 논의는 들어가지 못한 것으로 알려진다. 이에 따라, 관련 기업들은 국가 간에 ‘규제의 분단’ 가능성을 우려하고 있다고 보도했다.
즉, 규제가 필요하다는 총론에서는 일치했으나, 구체적으로 어떤 수단을 사용해서 규제할 것인가, 하는 각론에서는 진척을 보이지 못한 것이다. EU처럼 새로운 법률을 제정해서 엄격하게 규제해야 한다는 입장이 있는가 하면, 미국 · 일본처럼 유연한 대응을 추구하는 나라들과 간극을 좁히지 못해 전망이 서지 않는 상황이다.
특히, EU는 2021년부터 생성 AI를 ‘고위험(high risk)’ 분야로 분류하고, 각 회원국이 새로운 법률 제정에 의한 엄격한 규제를 도입하는 방안을 논의해 오고 있다. 이와는 대조적으로, 미국이나 일본은 기업 측의 자주적 규제 및 ‘관 · 민이 설정하는 가이드라인’ 등 형태로 법률에 의존하지 않는 유연한 대응을 지향하는 실정이다. 따라서, 이번 각료 선언에서는 사실상 양론을 병기하는 방향으로 결론이 났고 구체적인 대응 수단에 대해서는 양 측의 입장이 엇갈린 채로 남겨지게 됐다.
그러나, 미국이나 일본에도 생성 AI에 대한 우려는 마찬가지로 존재한다. 미국에서는 기업들에 대해 AI의 신뢰성을 보장하기 위한 감사 제도에 관한 의견 공모가 진행 중이다. 기존의 법령을 활용하고, EU의 대응 자세도 인식하면서, 규제 정비에 나서고 있다. 예를 들어, 미국 고용기회평등위원회는 AI에 의한 고용 상 차별이 미국 인권법에 위반하는 결과가 될 가능성이 있다는 입장이다. 일본 정부도 5월 중에 AI 전략회의를 신설하고 생성 AI 이용에 대한 가이드라인을 설정하는 방안을 마련한다는 시나리오가 유력시되는 상황이다. 그러나, 생성 AI 분야를 전면적으로 규제하는 새로운 법령을 제정하는 등의 움직임은 없다. 이처럼, 주요국 간에 생성 AI에 대한 구체적 대응 수단을 둘러싸고 입장 차이는 여전히 남아있다.
이를 반영해서 G7은 이번 장관회의에서 각 회원국의 입장차를 확인하고 이를 존중한다는 데 일치하고 있으나, 정작 이 분야에서 활동하는 기업들은 각국의 규제가 일치하지 않을 경우, 각국 법령에 개별적으로 대응하는 데 따른 비용이 엄청나게 커질 것을 우려하는 목소리가 높아지고 있다. Microsoft는 “우선 기존 법령에 기반한 규제가 출발점” 이라는 입장이나, 궁극적으론 AI에 대한 각국의 대응이 ‘하나로 통일된 글로벌 메커니즘으로 표준화되어야 할 것’ 이라고 주장한다.
■ “EU, 생성 AI에 ‘통일 규제’ 추진, ‘Made With AI’ 표시 방안도”
현재까지 알려지기로는, 생성 AI 규제와 관련해서 가장 엄격한 자세를 보이고 있는 지역이 유럽연합(EU)이다. EU 집행위원회(EC) 베스테아(Margrethe Vestager) 디지털 시대 담당 부위원장(EVP)은 지난 24일, 日 Nikkei와 단독 인터뷰에서 Chat GPT 등, 생성 AI의 적정한 이용을 위한 규제를 위해 EU 전체에 적용할 새로운 법률을 ‘될 수 있는 한 이른 시일 내에’ 시행할 방침임을 시사한 바가 있다. EU에서 처음으로 AI 대책을 밝힌 동 부위원장은 EC 내에서 AI 및 경쟁 정책을 총괄하고 있고, 미국의 거대 IT 기업들에 대해 엄격한 자세를 가진 것으로 알려져 있다.
베스테아 부위원장은 생성 AI에 적용할 규제안에 대해, AI가 작성한 문서 혹은 화면 등에 ‘Made with AI’ 등 문구를 표시하는 방법으로 AI에 의해 작성된 것이라는 점을 명기하게 하는 방안이 제기되고 있음을 시사했다. 동 위원장은 EU가 추진하고 있는 생성 AI 규제안에 대해 ‘연구’ 단계는 규제 대상이 아니라고 명언하고, 기업들은 기술 혁신 추진과 동시에 아이디어 창출을 추구할 수 있다고 강조했다.
사실, EU는 이전부터 AI 이용에 관한 법안을 준비해 왔고, 최근 챗 GPT와 같은 고도의 대화 능력을 갖춘 생성 AI가 등장하자 새로운 법률로 강력하게 규제할 준비를 서두르게 된 것이다. 따라서, EU는 AI의 리스크를 4 단계로 나누고, 높은 리스크로 분류한 AI를 공개 이전에 평가하는 시스템을 구축하려는 것이다. 따라서, 생성 AI 서비스 제공 기업들에게 “이것은 실제 사진이 아니다” 라는 표시를 붙이게 하거나, “왜, AI가 그런 (결과를) 판단했는가”, “(해당 AI는) 어떤 윤리 기준을 마련하고 있는가” 등에 대한 설명 의무를 부과하는 방안을 고려 중임도 밝혔다.
동 부위원장은 2023년 후반까지 EU 의회 및 각료이사회에서 정치적 합의를 이룬 다음에 이에 따라 제정되는 새로운 법률을 시행하려는 구체적인 법률 제정 일정도 밝혔다. 동시에 EU에서 앞장서서 통일된 규제를 구축해서 효력을 높이고 나서, G7 각국이 공통된 규제 룰을 마련하는 데 활용하게 하려는 복안인 것으로 알려진다. 따라서, EU는 우선 독자적 규제 시스템을 만들고 나서 이런 기대를 가지고 다른 나라 및 지역과 협조하는 것에도 전향적인 자세를 가지고 있음을 시사했다.
■ “규제 대상은 ‘연구’ 단계가 아니라 이용 상 폐해를 방지하는 것”
각국에서 생성 AI에 대한 다양한 형태의 새로운 규제를 도입하려는 시도는 AI 기술의 연구 단계를 규제 대상으로 하려는 것이 아니고, 완성된 AI의 이용 단계에서 나타날 수 있는 폐해를 어떻게 방지할 것인가에 초점이 맞춰질 것으로 보인다. 그리고, 현재 각국이 규제 방안을 고심하고 있는 것은 일반적이다. 단지, 규제의 수단을 구상하는 측면에서 종전의 법령을 적용해서 유연하게 할 것인가, 아니면 새로 규제 법률을 제정해서 엄격한 자세로 대응할 것인가의 차이가 있을 뿐이다.
이와 대조적으로, 최근 영국 The Economist가 중국의 AI 규제 사례를 소개해 눈길을 끌고 있다. 이에 따르면, 중국에는 최근 1개월 동안에 Alibaba, Baidu(百度), 화웨이(華爲) 등 IT 대기업들이 잇따라 미국의 Chat GPT와 유사한 Chat Bot을 선보이고 있다. 동 지는, 이런 상황에서, 중국의 규제 방식이란 단적으로 무엇이 진실인가는 중국공산당만이 결정하는 것이라고 소개한다. 동시에 엄청난 가능성을 가진 생성 AI의 출현은 중국 정권에게는 커다란 과제를 안겨주는 것이기도 하다.
이전에 인터넷이나 휴대폰의 등장으로 사회 전반에 커다란 성장과 발전을 가져왔음에도 불구하고 생성 AI의 본격 등장은 중국공산당에게는 통제가 미치지 못하는 영역에서 새로운 정보 흐름이 확산되는 루트가 열리는 것을 피할 수 없게 된다. 중국 정권은 종전에 SNS의 확산은 검열되지 않은 뉴스 및 의사소통 경로에 접근이 확산되는 것을 통해 중국 민주화를 지원해 왔던 것으로 경계해 왔던 것이다.
이에 따라, 중국 당국은 SNS가 불편한 정보를 유입하는 것을 방대한 인원을 동원해서 철저하게 검열하고 차단하는 소위 ‘디지털 장성(長城)’을 구축하는 방식으로 규제해 일정한 성공을 거두며 이를 중심으로 나름대로 IT 업계를 육성해 왔던 것이다. 이에 비춰 보면, 지금 급속히 확산되는 생성 AI에 대해서도 이와 유사한 상황이 벌어질 가능성이 크다는 전망이다. 즉, ‘디지털 장성’은 다양한 기관 및 기업들의 협력으로 단계적으로 발전하게 하는 단순한 장벽일 뿐 아니라, 외부로부터 유입되는 유해 콘텐츠를 배제하는 중층적 차단 장치의 일환이기도 한 것이다.
최근 중국 국가인터넷정보관리실(CAC)이 발표한 규제안은 당국이 생성 AI에 대해 얼마나 우려하고 있는지를 엿볼 수 있게 한다. 이 규제 방안에는 생성 AI를 사용한 서비스를 일반에 제공하는 기업은 사전에 보안 평가 결과를 국가에 제출하도록 의무화함으로써 기업들에 AI가 생성한 콘텐츠에 책임을 지도록 하고 있다. 이와 함께, 콘텐츠는 국가 권력의 타도, 국가 분열의 선동, 국가의 단결을 방해, 경제적 · 사회적 질서 혼란 등을 의도하는 것 이어서는 안된다고 명시하고 있다.
결국, CAC는 규제를 엄격히 운용함으로써 AI 발전을 저해할 수도 있고, 실제 규제의 적용에 기업들의 운신의 폭을 넓혀주어 일정한 발전 모델을 만들어 낼 수도 있을 것이다. 기업들이 학습에 사용할 개인 정보의 폭을 제한하는 것도 이론상으로는 발전의 장애가 될 수 있다. 따라서, 중국이 검열 통제 위주의 방식으로는 규제 자체에는 성공할 수 있을지 몰라도 혁신 중심의 발전을 기본으로 하는 AI 분야에 광범위한 규제가 적용된다면 혁신의 장애가 될 수밖에 없을 것은 물론이다.
■ “Chat GPT는 ‘AI 전환기’, 규제 논의에 ‘전원 참가’ 방식이 중요”
Nikkei는 다른 기사에서 AI 분야 발전을 상징하는 10대 키워드를 소개했다. 우선 특징적으로 ① GPT-3가 학습에 활용한 정보 양이 문고판 책자 2억2,500만권에 달하고, ② 최신 버전 GPT-4가 사법시험에서 상위 10% 성적을 거뒀고, ③ OpenAI社 평가액이 290억달러에 달하고, ④ 2027년까지 생성 AI 시장 규모가 1,210억달러에 달하고, ⑤ AI로 자동화되는 분야의 취업자가 3억명에 이르고, ⑥ AI 제품에 장점이 있다고 생각하는 사람이 50%를 넘고, ⑦ AI 개발 중단을 요구하는 사람은 25,000명에 달하고, ⑧ 인간의 판단을 개입하지 않고 표적을 찾아내 공격까지 실행하는 자율형 무기(武器) 시장은 301억달러에 달할 것으로 전망했다.
반면, AI도 만능이 아니어서, ⑨ 2017년말~2023년 2월 말까지 기간에 자산운용에 AI를 시험 적용한 결과, 운용 성과가 S&P 지수가 48%임에 비해 겨우 12%에 그쳐 대단히 빈약한 실적을 거두는 데 그쳤고, ⑩ 인간들이 무분별하게 함부로 AI를 사용하면 차별, 인권 침해, 범죄 악용 등의 폐해도 크다고 지적하고 있다.
이런 상황에서, 각국은 생성 AI에 대한 다양한 형태의 새로운 규제 도입을 시도하고 있다. 따라서, AI 분야 기업에 종사하는 경영자들은 물론이고 관련 전문가들은 향후 AI 분야를 규제할 룰 설정에 관련 분야 ‘전원’ 참가를 강조하고 있다. Chat GPT 개발을 주도한 Open AI사 브로크만(Greg Brockman) 창업자 겸 CEO는 “AI를 올바르게 이해하고 규제 룰을 설정하기 위해서는 지식 및 판단력을 높여갈 것이 필요하고 이를 위해 모든 관련인들이 참가할 것이 필요하다” 고 강조하다.
동 CEO는 인간이 관리, 감독하고 높은 품질의 피드백을 실행함으로써 신뢰성이 높은 결과를 가져올 수 있다고 언급했다. 그는 모든 신기술은 단번에 ‘0’에서 ‘1’로 발전된 것이 아니라 단계적으로 이뤄져 온 것이라고 강조하고, AI를 열심히 익혀 AI에 무엇을 요구할 것인가를 모두 함께 결정할 것이 중요하다고 역설했다.
한편, 아마존(Amazon.com) 클라우드 서비스 기업 AWS의 펑크(Michael Punke) 부사장도 최근 한 인터뷰에서 ‘인공지능(AI) 분야에 과도하게 광범한 규제를 가하는 것은 좋지 않다’는 견해를 밝혔다. 그는 현재 주요국에서 진행 중인 규제 논의에 대해 “정부가 우려를 가지고 있는 것은 이해할 만하지만, (AI에 내재된) 리스크에 상응하는 정도의 규제를 취택해야 할 것” 이라며, 과도한 규제 움직임에 경고하는 입장을 표명했다. 구체적으로는, 민간 기업과 대화를 계속하면서 “(규제 설정에서 규제 담당자들이) 민간 측 관점에서 판단할 것이 중요하다” 고 강조했다.
그는, 이와 관련, 각국이 다양한 규제 방식을 취하는 점에 대해서도 “각국 정부들이 긴밀하게 대화할 장(場)이 필요하다” 고 언급, G7 각국이 연계해서 규제를 논의할 필요가 있다고 주장했다. 또한, “규제의 분단이 나타나면 중소기업 및 스타트 업들에게 과도한 법령 준수 의무가 부과될 우려가 생길 것이라고 경고했다. 이런 긴박한 글로벌 흐름 속에서 우리 정부 당국도 선진 각국의 공통된 규제 룰의 구축에 동참하거나, 혹은 긴밀히 소통하면서 지금 우리 사회에 급속히 확산하고 있는 생성 AI에 대한 규제 제도의 정비에 서둘러 나서야 할 때가 아닌가 한다.
<ifsPOST>
댓글목록
등록된 댓글이 없습니다.