열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

인공지능의 악용 사례, 딥페이크 기술과 과제 본문듣기

작성시간

  • 기사입력 2022년08월01일 16시41분

작성자

메타정보

  • 2

본문

딥페이크의 확산

 

최근 유튜브를 통해 배포되는 영상 중에서 딥페이크(DeepFake)를 활용한 영상들이 자주 보인다. 이들은 단순히 재미와 유머를 목적으로 하는 예도 있지만, 정치·사회 영역에서 가짜 뉴스를 퍼트려 혼란을 유발하거나, 특정 인물을 콘텐츠로 활용하여 음해하는 등 심각한 부작 용을 초래한다. 이미 악의적으로 인스타그램의 여성 사진을 누드로 편집(Deep porn)하는 AI가 등장1)한 지 오래이며, 유명 인사(트럼프, 오바마, BTS 등)를 다른 사람으로 편집하는 인권침해 사례도 다수 발생하고 있다. 최근에는 러시아와 전쟁을 겪고 있는 우크라이나의 젤린스키 대통령이 등장하는 가짜 영상이  공개되어 화제가 된 바 있다.2) 이처럼 딥페이크, 페이크 페이스(Fakeface)와 같이 인공지능(AI)을 활용하여, 진짜 같은 가짜를 만드는 이미지 합성 기술은 악의적인 기만행위로 사회 및 국가적인 혼란을 야기하고 있다.

aec31ae92ab8b1ff8fd0ce0e2642f99c_1658890

딥페이크를 만드는 알고리즘

 

그러면 딥페이크는 어떻게 만들어질까? 딥페이크에 활용되는 AI는 ‘생성적 적대 신경망’(GAN, Generative Adversarial Network)이라는 모델이다. 이는 두 개의 신경망이 서로 경쟁하면서 더 나은 결과를 만들어내는 강화학습 방식의 AI 기술이다. 글자 그대로, 그럴듯한 가짜 이미지를 생성(Generative)하고, 생성 및 감별 기능의 두 개 모델을 서로 적대적 (Adversarial)으로 경쟁·학습시킨 인공신경망(Network)을 뜻한다. 

 

GAN을 설명하는 쉬운 예시로, 위조지폐범과 경찰의 비유를 종종 활용한다. 위조지폐범은 더욱 정교하게 가짜 돈을 만들고자 노력(학습)하며, 경찰은 이런 정교한 가짜 돈을 더 정확 하게 감별해 내고자 노력(학습)하는 형식이다.

 

원래 GAN은 실제와 가상의 이미지를 보다 정밀하게 구별하고 구현하기 위한 기술로 개발 되었다. GAN을 통하여 영상이나 이미지를 정교하게 편집하거나, 보다 실감 나는 콘텐츠를 제작하고, 손상된 영상을 복원하는 등 다양한 영역에 활용되었다. 그러나 이 기술로 분별할 수 없는 수준의 콘텐츠를 제작하여 정치·사회적으로 테러 및 가짜 뉴스 등에 악용하는 사례가 점차 증가하고 있는 것이 현실이다.

 

최근에는 GAN을 활용하여 AI가 사람의 피부 뿐 아니라 머리카락까지 실제와 비슷한 이미지를 생성하는 수준에 이르러, 기술적 한계(Uncanny Valley)를 이미 뛰어넘은 것으로 판단되고 있다. 미국 UC버클리대와 영국 랭커스터대 공동연구팀은 실제 얼굴과 AI가 합성한 얼굴을 구별하는 실험을 통하여, 사람들이 AI가 합성한 가짜를 구별하지 못하며 오히려 가짜를 더 신뢰한다는 결과를 도출하였다.3) 

 

이 실험에서는 223명의 실험 참가자를 대상으로, 실제 사람 얼굴 사진과 AI가 합성한 얼굴 사진이 섞인 800장의 세트에서 무작위로 128장을 뽑아 신뢰도에 따라 1~7점 척도의 점수를 부여하게 했다. 그 결과, 합성 얼굴에 대한 평균 신뢰도(4.82)가 실제 얼굴 평균 신뢰도(4.48)보다 높게 나타났다. 또한 신뢰도 상위 4개의 얼굴 중 3개는 합성 얼굴이며, 신뢰도 하위 4개 얼굴은 모두 실제 얼굴이었다.

 

GAN의 긍정 활용 사례와 딥페이크 대응 사례

 

반면, GAN을 본래의 목적에 맞게 활용하는 사례들도 많이 있다. Adobe는 인물의 나이 및 감정 상태(표정 등)를 조절할 수 있는 AI(Neural Filter)를 개발하여 자사의 애플리케이션인 포토샵(Photoshop v22)에 탑재하였다.4) 

구글은 AI를 통하여 공상과학(SF)영화 속의 가상 생명체를 실감 나게 제작할 수 있는 도구(Chimera Painter)를 개발했다.5) 

이 AI는 자체 GAN 모델(CreatureGAN)을 활용하여 생물의 구조적 특징을 학습하고 새로운 유형의 생물체를 사실적으로 표현하는 것이 가능하다.

 

또한, 같은 기술을 활용하여 딥페이크 영상을 감지하는 프로그램도 있다. 미국 스탠퍼드 대 HAI(Human-centered AI) 연구팀은 조작된 영상 속 인물의 입 모양과 음성 소리 간의 미세한 불일치를 81%(최대 96%) 수준의 정확도로 감지하는 AI 시스템을 개발하였다.6) 특히, B, M, P와 같은 순음(脣音)을 감지하며 입의 모양과 소리 사이의 정합 여부를 판별 한다. 영상과 음성의 10초 단위 무작위 동기화 검사도 병행하여 정확도를 높였다. 이는 AI로 AI의 악용을 막는 사례이자, 같은 기술을 어떻게 활용하는가에 따라 전혀 다른 결과를 얻을 수 있음을 보인 대표적인 사례이다.

 

국내에서도 딥페이크를 감별하기 위한 연구가 한창 진행 중이다. 정부는 ‘AI 학습용 데이터 구축 사업’을 추진하고 있으며, 2020년 세부 과제 중 하나로 ‘딥페이크 방지 영상 AI 데이터’ 를 선정했다. 이 과제에 참여한 머니브레인은 영상의 진위를 판별하기 위한 딥러닝 모델인 ‘AI Fake Finder’를 개발했다. 이밖에도 온라인 성폭력 유해 사이트를 막는 ‘레드AI’(알엔딥), 원본 이미지를 블록체인으로 식별하도록 하여 조작 영상을 판별(코닥원)하는 등의 개발사례도 있다.

 

우리의 대응 방안

 

GAN은 분명 보다 나은 정교한 경험을 제공할 수 있는 기술이다. 그러나 악용되면 사회· 국가적인 혼란을 일으키는 등 부작용도 크다. 안보적 관점에서도 국가의 안전 보장 및 번영에 결정적(Critical) 역할을 할 수 있는 기술로 볼 수 있다.7) 

이 때문에 이를 올바르게 활용하기 위한 기술 및 제도적 대응이 필요하다. 

 

AI를 사회적으로 좋은 목적으로 활용하고, 악용을 방지할 수 있도록 이른바 ‘AI for Good’8)의 사례를 늘려가야 한다. 산·학·연 협동의 긍정적 AI 활용 연구·개발 과제를 적극 기획·지원해 야 하며, 공공의 호혜적 가치를 실현하는 다양한 실험적 시도를 추진해야 한다. 특히 미디어, 뉴스, 금융, 치안 등  특정 분야에서 GAN을 악용하는 사례를 전문적으로 감지 및 구별해 낼 수 있는 AI 개발을 다발적으로 시도하는 것이 필요하다.

 

지방자치단체와 협력한 생활 밀착형 AI 리빙랩(Living Lab.)9) 프로젝트를 추진하며, GAN을 활용한 다양한 과제를 기획·개발하는 것도 좋은 방법이다. 시민이 자발적으로 참여할 수 있는 생활 속 AI 활용 프로젝트나 경진대회 등을 추진하고, 집단지성을 활용하여 개발한 AI 기술력을 확보하는 것도 중요하다. 

 

과거부터 기술은 소위 ‘혁명’으로 불리며 인류의 역사를 바꾸어 놓았다. 기술을 어떻게 쓰느냐에 따라 우리의 현재와 미래가 달라질 수 있음을 주지하고, 기술의 본질을 이해하며 올바르게 활용하되, 부작용을 최소화하기 위한 모두의 노력이 필요한 때이다.

 

--------------------------------------------------------------


1) Haaretz, “‘Every Woman on Instagram Is Exposed’: New AI Software Creates Nude Photos of Clothed Women”, 2020.10.21. 

2) BBC, “Deepfake presidents used in Russia-Ukraine war”, 2022.3.18.

3) Sophie J, et al. “AI-synthesized faces are indistinguishable from real faces and more trustworthy”, 2022.2.14.

4) The Verge, “Photoshop’s AI neural filters can tweak age and expression with a few clicks”, 2020.10.20.

5) Google AI Blog, “Using GANs to Create Fantastical Creatures”, 2020.11.17.

6) Standford HAI, “Using AI to Detect Seemingly Perfect Deep-Fake Videos”, 2020.10.13.

7) SPRi, 국가안보를 위한 인공지능(AI)과 3대 전략 기술, 2022.5.10.

8) AI를 활용하여 의료보건향상, 환경보존, 사회적 약자보호, 복지증대, 재해·재난대응 등 사회문제를 해결하고 인류 행복에 기여하는 프로젝트로, MS, 구글, 인텔 등 많은 기업이 최근 ESG 경영을 실현하는 수단으로 적극 추진.

9) 기술을 이용하여 사회문제를 해결하는 연구실로, 시민(수요자)이 직접 참여해 문제를 풀어나가고 결과물을 만드는 개방형 실험실.


※이 글은 소프트웨어정책연구소(SPRi)가 발간하는 '월간 SW중심사회 7월호'(2022.7.25)에 실린 것으로 연구원 동의를 얻어 게재합니다.<편집자>​


 

 

2
  • 기사입력 2022년08월01일 16시41분
  • 검색어 태그 1

댓글목록

등록된 댓글이 없습니다.