박재천의 디지털경제 이야기 <14> 환각도 지능이다 본문듣기
작성시간
관련링크
본문
환각은 실제로는 존재하지 않는데 어떤 자극에 의하여 경험하는 것 같이, 마음 속에서 이루어지는 병적 현상을 말한다고 한다. 인공지능도 환각을 일으킨다는 우려가 많다. 무의미하거나 사실과 다른 정보를 생성하거나 인식하여 마치 정확한 것처럼 답변하는 경우를 말하고 있다. 그런데, 사람의 경우도 환각현상이 있다는데 사람의 지능을 모사하고 있는 인공지능에 이런 현상이 벌어진다는 것은 어떻게 보면 자연스럽지 않을까 생각된다.
환각은 인공지능 모델이 학습 데이터를 너무 완벽하게 꿰맞추거나, 편향적인 데이터를 이용해 개발하거나, 부정확한 데이터를 이용했을 때 일어난다. 진단을 잘 못하여 부적절한 치료로 이어질 수 있는 의료분야의 응용에서는 치명적 문제를 야기할 수 있다. 또 잘못된 정보를 확산하여 사회적 여론 형성과 같은 응용에서 중대한 영향을 미칠 수 있다.
인공지능 환각을 피하기 위해 오픈에이아이나 구글 같은 회사들은 많은 노력을 기울이고 있다. 인공지능 훈련에 사용되는 데이터가 다양하고 대표성이 있는지 검증 확인하는 조치를 철저히 하기 위해 많은 투자를 하고 있다. 인공지능의 답변을 모니터 하여, 정확성을 검증하고 오류를 수정하기 위해 사람을 직접 투입하여 최종 답변을 감독하기도 한다. 또 질문에 관련 있고 정확한 답변을 생성하도록, 스스로 고치고 학습하는 모델을 개발하여 훈련하기도 한다.
그러나 어떤 노력들도 인공지능을 환각현상에서 완벽하게 치유하지는 못한다. 기본적으로 인공지능의 언어생성은 통계적 추론과정을 벗어나지 못한다. 정답을 찾아내는 수학적 컴퓨터가 아니다. 선거에서 아무리 여론 조사를 잘해도 결과가 다르게 나오는 현상을 종종 경험하는 것과 같은 예측인 것이다.
인공지능이 얼토당토 않는 답변을 만들어 낼 때, 환각에 걸렸다고 취급해 버리기보다는 우리가 모르는 차원의 창의적 답변이 튀어 나왔다고 받아들이면 어떨까? 경우에 따라서는 환각현상을 창의의 발현으로 받아들일 수도 있지 않을까? ‘세종대왕이 화가 나서 맥북을 집어 던졌다'라는 이야기를 인공지능의 환각이라고 부정하기보다는, 이러한 환각적 결과물로 코믹한 에피소드를 만들 수도 있지 않을까 생각해 본다.
인공지능 모델 개발과 서비스 이용에 있어 환각현상을 절대적 잣대로 생각하는 부정적 통념에서 벗어나야 한다. 컴퓨터는 공식에 의하여 정확하게 계산하지만, 인공지능은 유사성을 기반으로 답변을 만들어 낸다. 인공지능으로부터 완벽한 정답을 요구한다면 그것은 인공지능을 이용하는 자세가 아니다. 인공지능도 지능이라는데, 답변을 생성해 내는데 어느 정도 일탈이 허용되어야 하지 않을까? 인공지능이 완벽하다면 그것은 지능이 아니지 않을까 반문하게 된다.
환각 현상을 탓하기 앞서, 인공지능을 믿으면 안된다. 인공지능의 결론은 반드시 사용자에 의해 검증되어야 하고 2차 판단 과정을 거쳐 받아 들여져야 한다. 인공지능 생성물의 옳고 그름의 판단 잣대는 사용자가 받아들이는 수준에 의해 결정된다. 따라서 사용자는 인공지능의 환각을 판단할 수 있는 능력을 가져야 한다. 아울러 환각을 유용하게 시용할 수도 있는 융통성을 가져야 한다. 이것이 인공지능을 이용하는 사용자가 갖추어야 할 덕목일 것이다. 인공지능의 환각현상은 있을 수 있는 지능에 의한 결과로 받아 들여져야 한다.
<ifsPOST>
댓글목록
등록된 댓글이 없습니다.