열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

책임감 있는 인공지능 본문듣기

작성시간

  • 기사입력 2021년01월14일 09시46분
  • 최종수정 2021년01월14일 09시50분

작성자

  • 김진형
  • 중앙대학교 석좌교수, KAIST명예교수

메타정보

본문

20대 여대생으로 인격화한 자연어 대화시스템 ‘이루다’가 대화 도중 사회적 소수자에 대한 편견을 드러냈다는 논란에 휘말렸다. 또 이루다를 성희롱의 대상으로 취급하며 물의를 일으켰다. 

 

인공지능은 이미 인간의 삶 속에 깊숙이 파고들고 있다. 이는 거스를 수 없는 흐름이다. 인공지능이 정교해지고 보편화됨에 따라 많은 윤리적 문제가 제기되고 있다. 피할 수 없는 편견, 이에 따른 공정성의 문제, 안전성과 투명성의 결여, 그리고 책임 소재의 문제점들이 윤리적 이슈를 복잡하게 만든다. 

 

이루다와 같이 데이터로부터 학습한 인공지능 시스템이 무엇을 할 수 있고, 무엇을 못하는지를 파악하는 것은 매우 어렵다. 데이터로부터 배운다고 하지만 그 데이터가 워낙 방대하고, 일반화 능력이 제한적이기 때문이다. 이세돌 기사를 이긴 알파고도 막상 대국을 하기 까지는 얼마나 잘하는지를 개발자도 모른다고 하지 않았는가? 

 

이번 문제가 된 이루다도 어떤 대화가 진행될 것인가를 개발자들도 모르고 있었을 것이다. 알면서도 수익을 위하여 윤리적 문제를 눈 감았다고 생각하고 싶지 않다. 사용한 대화 데이터가 워낙 방대해서 모든 경우를 검토할 수가 없을 것이다.  또 사용자들이 개발자의 의도대로만 사용한다는 보장도 없다.  그러나 몇 년 전부터 MS Tay 챗봇 같은 유사한 사례가 여기저기서 발생했는데도 또 같은 문제를 야기한 것에 회사가 책임을 통감해야 한다. 기계학습이라는 강력한, 그러나 아직 성숙하지 않은 도구를 어린 아이에게 쥐어 준 것이 아닌가 걱정된다.

 

6개월 전 대만의 한 고속도로에서 드러누워 있는 트럭을 자율주행 자동차가 들이받았다. 이 자율자동차의 인식 알고리즘은 수백만 장의 자동차 영상을 이용하여 학습을 했지만 드러누워서 바퀴가 안 보이는 트럭은 인식을 하지 못했다. 학습데이터에 그런 상황이 없었을 것이다. 그런 알고리즘을 검증 없이 현장에 배치한 것은 비난 받아야 마땅하다. 제조물을 만들기는 쉽지만 안전하게 만들기는 매우 어렵다. 기계학습이나 인공지능 등의 화려한 언어를 동원하지만 안전하며 책임감 있는 시스템을 만드는 데는 많은 노력이 필요하다. 

 

더구나 현장에 배치된 후에 데이터를 모아서 학습으로 성능을 향상하겠다는 지능형 학습시스템의 문제는 더욱 심각하다. 지금 잘 작동한다는 것이 내일도 잘 작동한다는 것을 보장하지 않는다. 그래서 인공지능 시스템 운용에는 사람의 감시와 통제가 항상 필요하다. 인공지능의 개발과 사용, 평가, 그리고 개선의 사이클에 사람이 들어 있어야 한다. 

 

알고리즘의 비윤리적 행동이 문제가 된 것은 어제 오늘 일이 아니다. 인공지능의 여명기라고 할 수 있는 1970년대부터 알고리즘의 공정성 문제가 제기되었다.  와이젠바움은 그의 저서 "컴퓨터 파워와 인간의 사고”에서 프로그램에 사용된 데이터만 아니라 프로그램이 코딩 되는 방식에서도 편향이 발생할 수 있다고 경고했다. 그래서 동정심과 지혜가 없는 컴퓨터가 홀로 중요한 결정을 내리는 것을 결코 허락하지 말아야 한다고 주장했다. 결정을 위한 계산은 인공지능이 할 수 있지만 인간을 인간 답게 만드는 것은 판단하여 선택하는 능력인데 인간의 판단은 감정과 같은 비수학적인 요소들이 포함되어 있어서 컴퓨터로 하면 안된다고 주장했다.

 

개발자가 의도를 갖고 불공정한 알고리즘을 만든 대표적인 사례는 폭스바겐의 디젤 배기가스 배출 시험에 관한 비윤리적 사건이다. 2015년 미국 환경보호국에서 폭스바겐 자동차가 실내 시험장에서는 배기가스 배출을 억제하다가 도로 상에서는 40배의 배기가스를 배출하는 알고리즘을 사용한 것을 적발했다. 이 회사는 2008년에 의도적으로 사악한 소프트웨어를 개발한 것으로 알려졌다. 이 적발로 폭스바겐은 전세계에서 73억 달러 비용을 들여서 100만 대의 자동차를 리콜 했다. 아무래도 소프트웨어는 하드웨어에 비하여 투명성이 약하기 때문에 유혹에 빠지기 쉽다. 

 

알고리즘의 편견과 불공정에 관한 이슈는 데이터 기반 기계학습이 일상적으로 쓰이기 시작한 2010년 이후부터 본격적으로 대두되었다. 알고리즘이 편견으로 내리는 판단이 불공정하고 비윤리적이라는 것은 자명하다.  알고리즘이 보이는 편견은 대부분 데이터에 포함된 편견이 기계학습을 통하여 그대로 알고리즘에 전이되어 일어나는 사태들이다. 데이터로부터 채집된 인종과 성별에 따른 편견이 그대로 알고리즘으로 전이된 사례를 많이 발견한다. 데이터 수집부터 학습알고리즘의 선택에 이르기까지 편견을 극복하기 위한 엔지니어의 노력이 필요하다.  그러나 데이터 기반 기법은 판단과정을 설명하지 못하는 한계를 갖고 있다. 따라서 투명성을 제고하기도, 또 불공정과 비윤리적 행동을 바로잡기도 쉽지 않다. 

 

결국 안전하고 윤리적으로 책임감 있는 인공지능을 만들려면 엔지니어가 기술적 능력과 윤리적 감수성을 가져야 한다. 인공지능의 부작용을 모두 막는 건 사실상 불가능하다. 중요한 건 인공지능의 부작용을 최소화하면서 이점(利點)을 극대화하는 방향으로 사용하는 것이다. 

 

인공지능이 윤리적으로 사용되도록 하기 위해 각 정부는 물론 OECD(국제협력개발기구) 등의 국제기구, 비정부기구들이 노력하고 있다. 기업들도 자체적으로 인공지능 사용 원칙을 제정해 시행하고 있다. 학술단체인 ACM(Association for Computing Machinery : 미국 컴퓨터학회)이나 IEEE(Institute of Electrical and Electronics Engineers:전기전자기술자협회)에서도 컴퓨터 전문가들이 지켜야 할 윤리장전을 오래전부터 제정하여 운영하고 있다. 대학 컴퓨터과학 커리큘럼에도 전산윤리학 과목을 포함하도록 권고하고 있다. 

 

인공지능 개발과 활용에 있어서 지켜야 할 원칙을 정리해보면 다음과 같다.

첫째 원칙은 인공지능을 사회적으로 유용하게 사용해야 한다는 것이다. 인공지능의 사용이 사회적, 경제적 가치를 가져와야 한다. 그 편익이 예측 가능한 위험과 단점보다 많아야 한다. 

둘째는 공정성이다. 불공평한 편견을 배제해야 하며 활용 목적을 숨기지 않아야 한다. 

셋째는 안전과 신뢰성이다. 안전한 사용을 보장하고 사람에게 위해를 가하면 안 된다. 인공지능은 항상 사람의 지시와 통제 하에 있도록 하고, 우리는 인공지능을 감시하고 통제할 수 있는 능력을 놓쳐서는 안 된다.  

넷째는 투명성이다. 인공지능이 인간의 판단을 대신하기 때문에, 그것이 내린 결정을 설명할 수 있어야 한다는 것은 중요한 원칙이다.

 

결론적으로 윤리적이고 책임감 있는 인공지능 개발의 임무는 인공지능 엔지니어의 몫이다. 인공지능 엔지니어는 세상을 바꿔 가고 있다는 자긍심과 책임감을 갖고 무엇이 옳고 그른지 판단하기 위해 끊임없는 성찰이 필요하다. 

<ifsPOST>

 

 

6
  • 기사입력 2021년01월14일 09시46분
  • 최종수정 2021년01월14일 09시50분

댓글목록

등록된 댓글이 없습니다.