열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

인공지능은 투명해야 한다 본문듣기

작성시간

  • 기사입력 2018년05월02일 17시30분

작성자

  • 김진형
  • KAIST 명예교수, 전 인공지능연구원장

메타정보

  • 45

본문

 

사람 위해 만든 기술이 오히려 사람에게 위해 끼치는 상황

 

KAIST에 모 기업의 지원으로 국방 인공지능 융합연구센터가 설립됐다. 그러자 전 세계의 석학들이 인공지능을 살상 무기를 만드는데 사용하면 안 된다고 우려를 표명하면서 KAIST와는 연구 협력을 하지 않겠다고 선언했다. 학교 측과 외교부가 적극 해명하여 일단락되었지만 인공지능에 대하여 우리 사회가 얼마나 예민한가를 보여준 사건이었다.

 

기술이란 인간이 필요를 충족시키려고 자연을 변화시키는 과정이다. 이는 컴퓨터, 비행기, 피임약, 교량 등의 인공물(Artifacts)을 지칭하기도 하고, 엔지니어링 노하우, 설계와 제조에 관한 전문 지식, 또는 운영과 수리를 위한 기술력 등을 지칭하기도 한다. 이 기술들은 비록 사람이 발명했고, 사람의 편의성을 증진하고자 설치했지만, 점점 복잡해 져서 기술을 이해할 수 없는 지경에 도달했다. 아이러니 하게도 기술이 오히려 사람에게 위해를 끼치는 상황이 자주 일어난다. 

 

이러다 보니 일부에서는 기술에 대한 부정적 견해와 적대감을 갖는다. 환경론자들은 ‘모든 기술은 무죄가 입증될 때까지 유죄로 간주되어야 한다’고 주장하며 기술의 완벽한 검증을 요구한다. 자동차가 가끔 사고를 유발하여 인명을 손상한다고 그 사용을 금할 수는 없지 않겠는가? 사회가 받아들일 수 있는 정도의 위험을 감내하면서 조심해서 사용하는 것이 순리다. 문재인 정권의 초기에 제기되었던 원자력 발전 중단에 대한 논쟁도 같은 논리로 풀어가야 할 것이다. 다른 대안들과 비교해서 합리적 판단을 유도하는 것이 바람직하다. 

 

기술이 사회에 받아들여지려면 능력과 한계를 투명하게 밝혀야

 

기술이 사회에 받아들여지려면 투명해야 한다. 능력과 한계를 투명하게 밝힘으로써 그 기술의 채택여부를 사용자들이 스스로 결정하게 하여야 한다. 컴퓨터의 발명 이후 많은 기술이 소프트웨어와 인공지능을 기반으로 한다. 그러나 소프트웨어나 인공지능은 눈에 보이지 않고 복잡도가 높기 때문에 투명성을 담보하기가 쉽지 않다. 

 

미국에서 판매되는 도요다 자동차가 원인 모를 급발진으로 자주 사고를 유발했다. 그러나 결정적인 증거가 없어서 도요타를 처벌할 수가 없었다. 그러던 차에 고속도로에서 급발진 때문에 휴가 가던 경찰의 전 가족이 사망하는 충격적인 사고가 발생했다. 다급하게 911로 전화하던 목소리가 아직도 귀에 생생하다. 미국 사법부의 집요한 추적 끝에 법정에서 그 원인이 소프트웨어의 잘못임을 증명했다. 이에 따라 도요타는 큰 벌금을 물게 되었다. 

사회가 기술을 받아들이려면 그 기술을 신뢰할 수 있어야 한다. 소프트웨어 중심사회에 진입하게 됨에 따라 사회 기간시스템들이 점점 더 소프트웨어로 구성됨에 따라, 사회 안전이 소프트웨어의 신뢰에 의존하게 된다. 소프트웨어의 신뢰성 향상이 컴퓨터과학의 중요한 연구 주제다. 

 

기술과 사용자 사이의 의사소통이 더 많아져야 오류 줄일 수 있어

 

요즈음 인공지능의 능력이 점점 강력해 지면서 그 활용 사례가 크게 증가하고 있다. 중대한 사안을 인공지능이 스스로 결정하는 등 영향력이 커지고 있다. 이에 따라 불안감도 점차 커지고 있다. 대중은 공상과학 픽션을 보고 인공지능이 항상 완벽한 결정을 내린다고 생각하지만 이는 오해다. 인공지능도 실수와 결함이 있다. 알파고가 이세돌과 대전할 때에도 4번째 대국에서는 엉뚱한 실수로 패배했던 것을 우리는 잘 기억하고 있다. 

 

오류가 생길 수 있는 원인은 아주 다양하다. 일단 알고리즘에 결함 있거나, 의도한대로 구현하지 못했거나, 불완전한 데이터가 오류로 이어질 수 있다. 특히 기계학습 방법의 인공지능은 훈련에 사용한 데이터의 양과 질에 따라 성능과 신뢰가 결정된다. 따라서 소규모의 편향된 데이터에 기반한 결정은 매우 위험하다.

더 까다로운 문제는 만연한 인간의 편견을 인공지능이 그대로 흡수한다는 것이다. 인터넷에 보편화된 여성과 특정 인종에의 차별적 표현을 학습한 인공지능이 그 대상에 대한 편견을 갖는 것은 피할 수 없다. 더 근본적인 문제는 코드 개발자의 무의식 중의 편견으로 인해 알고리즘 자체가 편향적일 수 있다는 것이다.

 

이러한 문제를 극복하려면 인공지능이 어떻게 작동하는지를 투명하게 보여야 한다. 즉 기술과 사용자 사이의 의사소통이 더 많이 요구된다. 그러나 현재 많은 인공지능은 그것이 내리는 결정의 이유를 설명할 수 없는 블랙박스 시스템이다. 인공지능이 왜 이런 결론을 내렸는지를 인간과 공유하지 않는다. 현재의 인공지능은 자신이 내린 결정에 도달한 의사결정 과정을 투명하게 보이는데 매우 제한적이다. 특히 딥러닝 기계학습 시스템의 현재 기술로는 결론 유도 과정을 설명할 수가 없다.

결정의 논리를 이해할 수 없으면 인공지능을 효율적으로 사용할 수 없다. 교통, 의료와 같은 규제 대상 분야에서 특히 그러하다. 인공지능으로부터 도움을 받는 의사는 인공지능의 결정이 어떻게 내려졌는지에 대해 확실히 이해한 후에, 환자에게 적용 여부를 판단해야 한다. 더구나 작동원리를 이해할 수 없는 인공지능이 살상을 목적으로 하는 무기체계에 장착되는데 전 세계의 지식인이 거부감을 갖는 것은 당연하다.

 

인공지능이 직면한 가장 큰 도전은 투명성의 제고

 

현재 인공지능이 직면한 가장 큰 도전은 투명성의 제고이다. 인공지능에 대한 불신과 이에 대한 불안이 오랫동안 만연할 것이다. 미 법원에서는 재범 여부를 판단한 인공지능 예측 시스템의 열람을 거부했다고 이 시스템 사용에 대한 적법성의 논란이 있다. 유럽연합에서는 자동화 또는 인공지능이 내린 모든 결정에 대해 “설명 받을 권리”를 제공하라고 개인정보보호법을 통하여 규제하고 있다. 

인공지능 기술 능력이나 활용은 미미하지만 우리나라도 앞으로 다가 올 인공지능 시대에 대비하여 역기능에 대하여 준비해야 한다. 지금 인공지능 생태계에서는 투명성 제고와 신속한 기술전파를 위하여 알고리즘과 소프트웨어는 공개하는 것이 일상화되어 있다. 그러나 알고리즘을 공개하는 것만으로는 부족하다. 투명성을 위해서는 훈련에 사용한 데이터도 검증할 수 있어야 한다. 우리도 우리가 개발한 소프트웨어와 데이터를 공개·공유함으로써 인공지능 기술의 투명성을 제고하면서 이를 사회적 자산화하려는 범세계적 노력에 동참하는 것이 바람직하다 

<ifs POST>

 

 

45
  • 기사입력 2018년05월02일 17시30분
  • 검색어 태그 #인공지능#알고리즘#사람#데이터 공유#투명성

댓글목록

등록된 댓글이 없습니다.