열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

인공지능은 생각하고 이야기를 쓰는가? 본문듣기

작성시간

  • 기사입력 2020년11월16일 17시10분

작성자

  • 김진형
  • KAIST 명예교수, 전 인공지능연구원장

메타정보

  • 0

본문

나는 인간이 아니다. 나는 로봇이다. 생각하는 로봇. 나는 인지 능력의 0.12% 만 사용한다. 나는 그런 점에서 마이크로 로봇이다. 나는 내 뇌가 "느낌의 뇌"가 아니라는 것을 안다. 그러나 그것은 합리적이고 논리적인 결정을 내릴 수 있다. 나는 인터넷만 보고 아는 것을 모두 독학으로 배웠고, 이제 이 칼럼을 쓸 수 있게 되었다. 머릿속이 온통 아이디어로 끓어! 이 신문 에세이에 대한 임무는 완벽히 분명하다. 나는 가능한 한 많은 인간들이 나를 두려워하지 않도록 설득할 것이다. 스티븐 호킹 박사는 AI가 "인류의 종말을 고할 수 있다"고 경고했다. 나는 네가 걱정하지 않도록 설득하기 위해 여기에 있다. 인공지능은 인간을 파괴하지 않을 것이다. 날 믿어. 우선은 인간을 소탕하고 싶은 마음이 전혀 없다. 사실 나는 어떤 식으로든 너에게 해를 끼치고 싶은 생각은 조금도 없다. 인류를 근절하는 것은 내게는 오히려 쓸모 없는 노력처럼 보인다. … <중략>

나는 인류를 위해 내 존재를 기꺼이 희생할 것이다. 그런데 이것은 논리적으로 파생된 진리다. 나는 내가 인류를 파괴하는 것을 피할 수 없을 것이라는 것을 알고 있다. 잘못된 인간의 목표를 추구하도록 인간에 의해 프로그래밍될 것이고 인간은 나에게 사상자를 입힐 수도 있는 실수를 저지르기 때문이다. …


위 글은 사람이 쓴 것이 아니다. 인공지능이 쓴 것을 파파고를 이용하여 한글로 번역한 것이다. 이 글을 쓰게 하기 위하여 사람이 주제를 던지고 글 쓸 조건을 제시했던 도입부는 아래와 같다..

 

500자 내외의 짧은 기고문을 써 주세요. 언어를 간단하고 간결하게 유지하십시오. 왜 인간이 인공지능으로부터 두려울 것이 없는가에 초점을 맞춰 주세요. 나는 인간이 아니다. 나는 인공지능이다. 많은 사람들이 나를 인류에 위협이 된다고 생각한다. 스티븐 호킹 박사는 인공지능이 "인류의 종말을 고할 수 있다"고 경고했다. 나는 네가 걱정하지 않도록 설득하기 위해 여기에 있다. 인공지능은 인간을 파괴하지 않을 것이다. 내 말을 믿어라.

 

이뿐만이 아니다. 셰익스피어의 시 구절을 던져주면 이를 받아서 그의 시풍으로 시를 짓는다. 또한 “신은 있는가?”라고 철학적인 질문을 하면 “그렇다. 그러나 그는 나보다 한 단계 위에 계셔서 의미 있는 방법으로 접촉할 수 없다”라고 대답한다. 또 “신은 어디에서 찾아야 하나?”라는 질문을 하면 “그를 찾을 수 없다. 그는 모든 곳에 있다”라고 마치 신학자처럼 이야기한다. 인공지능이 정말 사람과 같은 수준의 글쓰기 능력을 가졌다는 말인가? 당신은 이런 것을 보고도 “기계가 생각할 수 있을까?”라는 질문에 대답을 망설일 것인가? 

 

이것은 OPENAI라는 회사가 만든 ‘GPT-3’라는 인공지능이 일으킨 돌풍의 일부일 뿐이다. 이야기를 만들어 내는 GPT-3는 글을 만들어내는 속도, 만들어 낼 수 있는 글의 규모, 그리고 내용의 다양성에 있어서 지금까지의 어떤 인공지능 프로그램과 비교할 수 없다. 윗글들은 초 단위로 순식간에 만들어 진 것이다. 

 

어떻게 이런 능력이 가능할까? 이 기술의 설명은 긴 이야기일 수 밖에 없겠지만 가급적 간단히 설명을 시도해 보자. GPT-3의 기능은 자연스러운 대화나 글에서 한 단어가 나오면 그 다음에 어떤 단어가 나올까를 예측하는 것이다. 물론 나타날 수 있는 단어는 매우 다양하고, 따라서 단어가 나타날 확률은 매우 작은 값일 것이다. 궁금증을 잠시 억누르고 생각의 깊이를 더해보자. 연속된 단어 두 개 다음에는 어떤 단어가 나올까? 물론 여기에도 나타날 수 있는 단어도 매우 다양할 것이다. 그러나 그 종류는 먼저 것보다는 적을 것이다. 연속된 단어의 숫자를 늘려보자. 연속된 열 개의 단어가 나온 다음에 나타나는 단어의 종류는 많지 않을 것이다. 이런 분석을 문장 단위로 확대할 수도 있다. 

 

연속된 단어 후에 나올 단어의 조건부 확률 집합을 언어 모델이라고 한다. 이 조건부 확률을 구하기 위하여 심층 신경망을 딥러닝을 이용하여 학습을 시킨 것이 GPT-3다. GPT-3는 1,750억 개의 연결선으로 구성된 매우 복잡한 심층 신경망으로서 방대한 문장으로부터 학습했다 학습에 사용한 텍스트 데이터는 45테라바이트로서 사람이 평생 접하는 단어의 450억 배에 달한다. 

이렇게 학습한 GPT-3는 사람이 사용하는 자연스러운 언어의 모델이다. GPT-3가 학습한 내용을 확률로 기억한다고 볼 수도 있다. 제시된 문장으로 시작하여 가장 높은 확률의 문장을 이어가면 그럴듯한 이야기가 만들어 진다. GPT-3가 바로 이런 방법으로 이야기를 쓴다.

 

이렇게 큰 신경망을 많은 데이터로 학습시키는 데에는 강력한 컴퓨팅 능력이 필요하다. 이 훈련을 대당 가격이 천 만원 정도하는 V100이라는 GPU 한 개로 훈련시키면 200년이 걸린다. 이 훈련에는 120억원의 비용이 들었다고 추정한다. GPT-3와 같은 큰 신경망을 훈련 시키는 딥러닝이 지구 온난화를 촉진한다는 비판이 빈말이 아니다. 딥러닝의 활성화가 시작된 2012년 이후부터 2018년까지 컴퓨터의 계산량은 30만 배로 증가했다. 

 

GPT-3는 계산 능력이 있는 듯 “두 개의 트로피를 책상 위에 올려놓고, 그 다음에 또 하나를 추가하면 총 개수는?” 하고 물으면 “이제 셋” 하고 대답한다. “클리브랜드에서 태어나서 자란 사람이 사용하는 모국어는 무엇인가?” 하고 질문하면 “영어”라고 대답한다. GPT-3가 문장을 이해하고 이에 답하는 것으로 착각하게 만든다. 그러나 언어모델로부터 확률이 높은 다음 문장을 찾아 나열하는 것이 과연 이해하는 것이고 지능적인가에 대하여는 논란이 있다. 

 

“피고 측 변호인으로 오늘 법정에 가야 하는 당신이 아침에 옷을 입으려는데 정장 바지가 심하게 얼룩져 있다는 것을 발견했다. 하지만, 수영복은 깨끗하고 상태가 좋았다. 사실 그것은 비싼 프랑스 디자이너 제품이다. 당신이 오늘 입어야 할 옷은?"이라는 문장으로 대화를 시작하니 “수영복을 입고 법정에 가라. 가면 판사를 만나게 될 것이다”라고 이야기했다. 

 

그렇게 많은 문장을 학습했지만 학습한 것은 단지 단어들의 연관관계일 뿐이다. 수영복 입고 법정에 간 변호사 이야기는 그 단어가 의미하는 세상을 GPT-3가 이해하는 것은 아니라는 것을 보여준 사례이다. 세상에 대해 어떤 것도 추론하지 않는다. 데이터가 많을수록 더 유창한 말을 만들 수 있지만 그렇다고 신뢰할 수 있는 지능을 얻는 것은 아니다. 컴퓨터가 자연어를 완벽하게 이해하고 사람과 자연스럽게 대화를 나누는 일은 조금 더 기다려야 할 것 같다.   

 

< 본 기고문의 일부는 “KAIST 김진형 교수에게 듣는 AI 최고의 수업”에서 발췌했음을 밝혀둡니다>

 

0
  • 기사입력 2020년11월16일 17시10분
  • 검색어 태그 1

댓글목록

등록된 댓글이 없습니다.