열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다
※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.
관련링크
본문
‘지브리 밈’ 열풍으로 본 AI 이미지 생성의 현재
지난주에 공개된 챗GPT-4o의 이미지 생성 기능은 전 세계 인터넷을 뜨겁게 달구며 새로운 밈 현상을 탄생시켰다. 특히 일본 애니메이션 제작사 스튜디오 지브리 특유의 화풍으로 사진을 변환하는 이른바 ‘지브리 밈’이 폭발적인 인기를 끌고 있다. 나도 본 기고에 등록된 나의 사진으로 당장 해보았는데 신기할 따름이다.
이번에는 이준호의 사이버보안이야기 <18>에 소개한 2025년 사이버보안위협 10대 전망의 기고문을 입력하고 나를 주인공으로 해서 10컷 만화를 만들어달라고 요청해보았다. 예전에 비해서 좋아지긴 했지만 한글을 약간 깨졌고 영어버전은 상당히 근접하게 만들어졌다.
사용자 누구라도 아이의 사진을 업로드하고 “이 사진을 지브리 애니메이션 스타일로 바꿔줘”라고 간단히 요청하면, 금세 따뜻한 색감의 동화 같은 이미지로 재탄생했다. 복잡한 프롬프트 없이도 손쉽게 내 사진을 애니 주인공처럼 바꿀 수 있다는 점에 대중이 열광한 것이다. 실제로 정치인, 연예인 할 것 없이 너도나도 자신의 사진을 지브리풍 캐릭터로 만들어 SNS에 공유했고, “마치 애니메이션 속 주인공이 된 듯하다”는 반응이 쏟아졌다. 지브리의 포근하고 서정적인 화풍으로 변환된 이미지들은 밑바탕에 흐르는 향수와 감성 덕분에 많은 이들의 공감을 샀다.
한 이용자는 유치원에서 찍은 아이의 사진을 지브리 풍으로 변환해 달라는 요청을 했고, 결과는 마치 스튜디오 지브리의 한 장면처럼 정감 어린 그림이었다. 이처럼 AI가 만들어낸 ‘지브리 스타일’ 이미지들은 우리 일상의 소중한 순간들까지 애니메이션 명장면처럼 느껴지게 만들었다. 불과 몇 초 만에 탄생한 결과물이지만, 이를 접한 부모들은 “우리 아이가 만화 주인공이 된 것 같다”며 미소를 지었고, 영화 팬들은 좋아하는 영화의 명장면을 지브리풍으로 재현해 감상하는 새로운 재미를 찾았다. 사람들은 AI 기술의 진보에 감탄하며, 자신이 직접 만들어낸 창의적인 이미지를 자랑스럽게 공유했다.
그러나 이 지브리 밈 열풍의 이면에는 간과할 수 없는 문제들도 존재한다. 겉보기에는 그저 재미있는 인터넷 밈이지만, 그 배경에는 AI의 저작권 무단 활용과 데이터 도용, 그리고 디지털 자산의 안전과 관련된 심각한 이슈들이 자리하고 있다. 본 기고문에서는 지브리 밈 사례를 통해 드러난 핵심 쟁점들을 짚어보고, AI 시대에 우리가 마주한 도전과 대응 방안을 살펴보고자 한다.
AI의 무단 학습과 저작권 침해 논란
지브리 밈의 폭발적 인기와 함께 곧바로 제기된 것은 AI의 무단 학습으로 인한 저작권 침해 문제였다. 스튜디오 지브리의 작품 이미지를 허락 없이 AI 모델 학습에 사용한 것 아니냐는 의혹과 비판이 잇따른 것이다. 실제로 지브리풍 이미지를 생성하는 AI 기능이 공개되자마자, 인터넷상에는 “AI가 지브리의 작품을 몰래 배웠다”는 항의성 패러디 이미지들이 등장했다. 오픈AI의 샘 알트먼 CEO가 “초지능 개발에 10년을 바쳤지만 정작 사람들은 ‘너를 지브리 스타일 꼬마로 만들었다’는 밈에 열광한다”는 자조적인 농담을 남긴 것도, 아이러니하게도 대중이 AI 기술 그 자체보다 그 기술로 유명 IP를 재미 삼아 소비하는 현상을 꼬집은 것이었다. 하지만 이 농담 뒤에는 지브리의 IP가 AI 학습에 무단 활용되고 있다는 업계의 난제가 숨어 있었다.
스튜디오 지브리의 창립자인 미야자키 하야오 감독은 AI 이미지 생성 기술 초기 시연을 보고 “정말 역겨운 기술”이라며 “이런 기술을 내 작품에 절대 사용하고 싶지 않다”고 강하게 비판한 바 있다. 지브리 애니메이션 한 편을 위해 수십 명의 애니메이터가 수 년간 그려낸 수작업 그림들, 그리고 감독의 독창적 상상력이 담긴 디자인들이 AI의 학습 재료로 무단 이용되고 비슷한 스타일로 복제되는 현실에 대해 창작자들은 깊은 우려를 나타내고 있는 것이다. 실제로 지브리 작품에서는 4초 분량의 군중 장면을 그리기 위해 애니메이터 한 명이 15개월을 매달렸다는 일화가 전해진다. 이렇게 피땀 어린 노력으로 창조된 예술의 결실이, AI 모델이 몇 초 만에 흉내낼 수 있는 시대가 오면 누가 과연 미래에 오리지널 창작에 투자하려 하겠느냐는 회의적인 시각도 제기된다.
지브리 사례는 비단 지브리만의 문제가 아니다. 전세계적으로 생성형 AI의 무단 학습에 대한 저작권 공방이 벌어지고 있다. 대표적으로 글로벌 이미지 기업 게티이미지는 AI 그림 생성기 스테이블 디퓨전을 개발한 회사 Stability AI를 상대로 자사 사진 수백만 장을 무단으로 학습시켰다며 소송을 제기했다. Stability AI가 게티이미지의 워터마크까지 찍힌 사진을 허락 없이 대량 수집·학습시켰다는 증거가 나오면서, 게티이미지는 손해배상 17억 달러를 청구하기도 했다. 또한 미국에선 유명 일러스트 작가들이 자신의 그림을 몰래 배운 AI 모델들(예: Stable Diffusion, Midjourney 등)이 화풍 도용 이미지를 양산하고 있다며 집단소송을 벌였고, “AI는 복잡한 콜라주 도구일 뿐”이라는 공방이 법정에서 오가고 있다. 한편 일본, 유럽 등 일부 국가들은 연구나 비영리 목적으로 데이터 마이닝을 할 경우 저작권을 예외적으로 허용하는 법 규정을 두고 있지만, 상업용 AI까지 저작권 있는 작품을 크롤링해 학습하는 행위가 정당한지에 대해서는 뚜렷한 국제적 합의가 없는 상태다. 결국 지브리 밈 열풍은 AI 시대의 저작권 법제 공백을 드러낸 사건이라 할 수 있다. AI가 배우는 데이터의 범위와 한계를 어떻게 설정하고 감시할 것인지, 이 문제를 해결하지 않고서는 제2, 제3의 ‘지브리 논란’은 계속될 수밖에 없다.
이미지 생성 AI 시대, 원본 디자인 소유권은 누구의 것인가?
AI가 만들어낸 이미지의 소유권과 창작 권리는 여전히 회색지대에 놓여 있다. 지브리 밈을 통해 생성된 수많은 2차 창작 이미지들은 과연 누가 권리를 갖는 것일까? 이를테면 한 사용자가 챗GPT-4o를 통해 만들어낸 지브리풍 그림 속에 토토로나 가오나시 같은 지브리 캐릭터가 등장한다면, 그 이미지를 사용자 개인 창작물로 볼 수 있을까, 아니면 지브리의 파생저작물로 봐야 할까? 현실적으로는 AI가 생성한 출력물 자체는 저작권법상 보호되지 않을 가능성이 높다. 왜냐하면 대한민국 현행 저작권법 등 다수 국가의 법제가 인간의 창작성이 없는 기계 산출물에 대해서는 저작물로 인정하지 않기 때문이다. 실제로 한국저작권위원회는 “원칙적으로 현행법상 AI 산출물의 저작물성은 인정되지 않는다”고 명시하고 있다. 미국도 최근 저작권청 결정에서 인간이 아닌 AI가 전적으로 만들어낸 이미지에는 저작권을 부여할 수 없다고 판단한 바 있다.
하지만 이렇게 법적 권리 주체가 모호한 이미지들이 인터넷에 넘쳐나면서, 오히려 원저작권자의 권리가 침해되는 사례가 속출하고 있다. 앞서 백악관 공식 X(트위터) 계정이 지브리풍으로 생성된 만화 이미지를 이민자 단속 홍보물에 활용한 일이 큰 논란을 빚었다. 백악관은 펜타닐 밀매 전과로 추방된 불법 이민자가 재입국 후 체포되었다는 글과 함께, 눈물을 흘리며 수갑 찬 여성과 여성을 체포하는 경찰관의 그림을 게시했는데, 이 그림이 현실이 아닌 AI 합성 만화 이미지였던 것이다. 더구나 해당 이미지에는 지브리 특유의 그림체가 가미되어 있어, 마치 동화 같은 장면으로 엄중한 사건을 부드럽게 포장하는 효과를 냈다. 미국 IT매체 더버지(The Verge)는 이를 두고 “챗GPT로 사랑하는 사람들의 귀여운 사진을 만드는 밈을, 백악관이 약자를 괴롭히는 수단으로 선전했다”며 강하게 비판했다. AI 이미지의 오남용이 정치 선전에까지 악용된 사례로, AI 출력물의 신뢰성과 윤리에 대해 경종을 울린 사건이었다. 동시에 이 사례는 해당 그림에 쓰인 지브리 스타일이 지브리의 승인 없이 사용되었음을 의미한다. 지브리 스튜디오 입장에서는 자신들의 디자인 자산(IP)이 원하지 않는 방식으로 소비되고 이미지가 확산된 셈이다.
이처럼 AI가 생성한 이미지의 저작권과 소유권을 둘러싼 논쟁은 복잡하다. 한편으로는 AI가 수많은 원본 그림을 참고하여 만들어낸 결과물이므로 여러 저작자의 창작물이 뒤섞인 파생물로 볼 수도 있다. 다른 한편으로는, 그 결과물 자체에 기여한 인간이 없으니 어느 누구의 것도 아니라고도 볼 수 있다. 현재까지는 후자의 관점에 따라 법적 공백이 존재하지만, 이는 원 저작권자에게 불리한 상황을 낳고 있다. 더 애틀랜틱은 많은 사람들이 지브리 스타일 이미지를 만들면서 “챗GPT-4o가 처음부터 미야자키 하야오의 작품으로 훈련된 것은 아닌가”라는 의문을 제기하고 있다고 전했다. 만약 미야자키의 실제 작품으로 AI를 훈련했다면 그에 따른 권리는 누구에게 있는가? 또, 설령 직접 학습하지 않았더라도 어떻게 이렇게 미야자키의 미학을 완벽히 모방할 수 있는지에 대한 질문이 뒤따른다. 오픈AI는 “살아있는 예술가의 화풍을 그대로 흉내내는 요청은 거부하도록 했다”고 밝혔지만, 정작 지브리 같은 스튜디오의 스타일 모사는 허용한 것이 잘못된 이분법이라는 지적도 나왔다. 미야자키 개인의 예술혼이 곧 지브리 스튜디오 전체의 작품세계를 정의하는데, 개인 대 스튜디오로 구분해 한쪽은 금지하고 한쪽은 허용하는 것은 논리적 모순이라는 것이다. 이는 곧 AI 시대에 ‘스타일 권리’라는 새로운 개념을 고민해야 함을 시사한다. 아직까지 법은 특정 화풍이나 스타일 그 자체는 보호하지 않지만, AI 기술이 화풍까지 복제하는 현실에서 디자인과 아이디어의 소유권을 어디까지 인정할지 사회적 논의가 필요한 시점이다.
진화하는 사이버 범죄: 해킹을 통한 데이터·콘텐츠 탈취
AI 시대에 들어 기업의 핵심 데이터와 디지털 저작물은 새로운 표적이 되고 있다. 모델을 학습시키는 대규모 데이터셋과 고품질 원본 콘텐츠가 곧 경쟁력으로 직결되면서, 이를 노리는 사이버 범죄도 진화하고 있다. 앞서 살펴본 지브리 밈 사례에서도, AI가 높은 품질의 이미지를 생성할 수 있었던 원동력은 방대한 학습 데이터였다. 만약 기업들이 이러한 데이터를 공개적으로 확보하기 어려워진다면, 해킹 등의 불법적 수단에 기대어 데이터나 저작물을 탈취하려는 시도가 증가할 수 있다. 실제로 2023년에는 챗GPT 개발사인 오픈AI 내부망이 해킹되어, 회사의 최신 AI 기술 설계 정보가 유출되는 사건이 발생했다. 해커는 오픈AI 직원들이 내부 포럼에서 나눈 신기술 논의 내용을 빼돌려 갔는데, 이에는 차세대 모델 설계와 관련된 민감한 정보들이 포함되었다고 한다. 다행히 고객 데이터나 핵심 코드에는 접근하지 못했지만, 첨단 AI 모델의 설계 기밀마저 해커들의 표적이 된 사례로 기록되었다.
또 다른 사례로, 2023년 초 메타(Meta)사가 연구 목적으로만 배포하던 최첨단 AI 언어모델 LLaMA의 가중치 파일이 온라인에 유출되어 버렸다. 이 모델은 본래 제한된 연구자들만 접근할 수 있었지만, 유출 뒤 전 세계 해커와 개발자들이 이를 다운로드해 활용할 수 있게 되었다. AI 모델의 무단 유출은 해당 기업에 막대한 손실을 입힐 뿐 아니라, 악의적인 목적으로 모델이 변형·악용될 위험도 높인다. 한편 한국에서는 대기업 직원들이 챗GPT에 내부 소스코드 등을 입력했다가 그 내용이 외부로 유출될 뻔한 일이 알려지며 보안 경각심을 불러일으켰다. 글로벌 전자회사 삼성전자에서는 일부 직원들이 업무상 기밀인 반도체 코드를 ChatGPT에게 물어보다가, 해당 대화 내용이 AI 학습 서버에 저장되는 사고가 있었다. 이 사건 이후 삼성은 사내에서 생성형 AI 사용을 전면 금지하며 기업 데이터의 유출 방지에 나섰다. 직원의 부주의도 AI 시대에는 곧 데이터 유출 사고로 이어질 수 있음을 단적으로 보여준 사례다.
더 나아가, 핵심 디지털 자산을 노리는 해킹 수법도 고도화되고 있다. 엔터테인먼트 업계에서는 영화 개봉 전에 원본 파일이 해킹으로 유출되어 온라인에 불법 유포되는 일이 있었고, 게임 업계에서도 출시 전 게임 소스코드와 리소스가 탈취되어 문제가 된 사례들이 있었다. 앞으로는 여기서 한 걸음 더 나아가, 해킹으로 탈취한 원본 그림이나 설계도를 AI 모델 학습에 활용하거나, 반대로 경쟁사의 AI 모델에 악성 데이터를 주입해 성능을 저해하는 시도까지 등장할 수 있다. 최근 연구에 따르면 AI 모델을 훔치는 새로운 기법도 확인되었는데, 굳이 내부 파일에 접근하지 않고도 API 질의만으로 모델의 성능을 거의 복제해내는 모델 탈취 공격이 가능하다고 한다. 이는 곧 기업이 비싼 비용을 들여 개발한 AI 모델을 경쟁자가 불법적으로 복제하여 이득을 취할 수 있음을 의미한다. 사이버 공격자들은 또한 AI의 취약점을 이용해 훈련 데이터에 악의적 샘플을 섞어넣는 ‘데이터 중독’(data poisoning) 수법을 쓰기도 한다. 이런 공격을 받으면 AI는 잘못된 학습으로 인해 이상한 출력이나 편향된 판단을 하게 될 수 있다. 요컨대, AI 시대의 사이버 범죄는 데이터와 모델 자체를 겨냥하여 새로운 국면으로 접어들었다. 기업과 국가의 중요한 디지털 자산을 보호하기 위한 보안 전략도 이에 맞춰 진화해야 할 것이다.
오리지널 데이터의 가치와 디지털 자산 보호 전략
지금까지 축적된 원본 데이터와 창작물은 AI 시대의 귀중한 디지털 자산이며, 이를 지키기 위한 노력이 그 어느 때보다 중요해졌다. “데이터가 곧 경쟁력”이라는 말처럼, 양질의 원천 데이터와 독창적 콘텐츠를 보유한 기업이나 국가가 향후 AI 경쟁에서 앞서나갈 가능성이 크다. 반대로 자신만의 데이터 자산을 잃거나 약탈당하면 경쟁 우위도 함께 잃게 될 것이다. 따라서 디지털 자산 보호 전략은 기업 경영과 국가 안보의 핵심 의제로 부상했다.
무엇보다 사이버 보안 강화를 통해 중요 데이터의 무단 유출을 원천 차단해야 한다. 기업들은 내부망에 대한 접근 통제를 엄격히 하고, 핵심 AI 연구자료나 콘텐츠 원본 파일에는 강력한 암호화와 접근권한 관리를 적용해야 한다. 외부로부터의 해킹 시도뿐 아니라 내부자 유출에도 대비하여 모니터링 시스템을 구축하고, 임직원 대상 AI 활용 보안 교육을 정례화할 필요가 있다. 앞서 언급한 삼성전자 사례처럼, 직원들이 무심코 사용한 AI 서비스로 기밀이 새나가지 않도록 명확한 가이드라인과 점검 절차를 마련해야 한다. 또한 AI 모델 API를 공개하는 기업의 경우 API 남용을 감지하여 모델 탈취 공격을 차단하는 기술적 조치도 고민해야 한다.
한편, 콘텐츠 창작자와 기업들은 자신들의 작품이 무단 학습되거나 도용되지 않도록 예방 조치를 시작하고 있다. 예를 들어 일부 예술가들은 온라인에 올리는 작품에 워터마크나 “No AI” 메타데이터 태그를 삽입해 크롤러가 수집하지 못하도록 시도하고 있다. 또 미국에서는 아예 자신의 그림을 AI 훈련 데이터에서 빼달라고 요청(opt-out)할 수 있는 시스템을 요구하는 움직임이 나왔다. 오픈AI도 2024년 자사 이미지 생성 모델을 위해 “미디어 관리 툴”을 개발하겠다고 발표하며, 크리에이터들이 자신의 작품을 AI 학습에서 제외시킬 수 있도록 하겠다고 밝혔다. 그러나 이 계획은 내부 우선순위에서 밀리며 2025년이 되도록 실현되지 못했고, 여전히 많은 창작자들은 자력으로 AI로부터 작품을 지켜야 하는 현실에 놓여 있다. 다행히도 학계와 산업계에서도 대응 기술을 개발 중인데, 예를 들어 시카고대 연구팀은 자신의 그림 스타일이 AI에 학습되지 않도록 미세한 노이즈를 추가해 AI를 속이는 ‘글레이즈(Glaze)’ 기법을 선보이기도 했다. 이러한 기술적 보호조치는 아직 초기 단계지만, 향후 디지털 콘텐츠에 표준으로 적용되어 AI의 무단 도용을 방지하는 방패막이 될 수 있다.
나아가 디지털 자산에 대한 명확한 권리규정과 보상체계를 마련하는 것도 중요하다. 기술적으로 완벽히 막을 수 없다면, AI 기업과 창작자 간 공정한 보상 시스템을 구축하는 방향으로 나아가야 한다는 의견이다. 예를 들어 창작물 사용료에 기반한 데이터 라이선싱 플랫폼을 도입해, AI 훈련에 타인의 저작물을 활용할 경우 일정한 사용료를 지급하도록 하는 방안이 논의되고 있다. 음악 분야에서는 이미 스트리밍 서비스가 음원 사용료를 저작권자에게 분배하는 모델이 정착되었듯이, 미술·사진 등 시각예술 분야에서도 AI 학습 사용료 개념을 도입하자는 것이다. 이러한 방안은 원본 데이터의 가치를 금전적으로 보전해 줌으로써 창작자들이 계속 창작활동을 이어갈 유인을 제공할 수 있다. 동시에 AI 산업도 지속가능한 데이터 공급망을 확보하게 되어, 사회 전체적으로 윈윈(win-win)이 될 수 있을 것이다.
국내외 정책 동향과 국가적 대응 방안
AI로 인한 저작권 및 보안 이슈가 세계적으로 부각되자, 각국 정부와 국제기구도 대응에 나서고 있다. 유럽연합(EU)은 광범위한 AI 규제안을 준비하면서 AI 훈련 데이터의 투명성을 요구하는 조항을 포함시켰다. 예를 들어 EU 인공지능법(AI Act) 초안에는 고위험 AI에 대해 훈련 데이터 출처 공개 의무 등을 부과하는 내용이 있다. 또한 EU는 2019년 저작권 지침에서 텍스트·데이터 마이닝 예외 조항을 도입했지만, 저작권자가 명시적으로 사용을 거부(opt-out)할 권리도 함께 인정하여 균형을 맞췄다. 영국의 경우 일시적으로 “모든 저작물을 허가 없이 AI 훈련에 사용할 수 있게 하자”는 파격적인 예외 법안을 검토했으나, 창작자들의 반발로 보류된 바 있다. 미국은 아직 명확한 입법 조치는 없으나, 저작권청과 의회에서 AI와 저작권에 관한 논의가 활발하다. 한편 국제 지식재산기구(WIPO)도 회원국들과 함께 AI와 지식재산에 관한 글로벌 대화를 진행하며, 국제 규범 형성의 가능성을 타진하고 있다.
이러한 가운데 우리나라 정부도 발 빠르게 정책 정비에 나섰다. 올해 3월 문화체육관광부는 ‘AI 시대의 문화 정책 방향 – 문화한국 2035’ 비전을 발표하며, 향후 10년간 국내 저작권 체계를 AI 시대에 맞게 전면 개편하겠다고 밝혔다. 우선 저작권법을 개정하여 AI 저작물의 법적 지위와 활용 방안을 마련하고, AI가 학습하는 데이터의 출처를 명확히 공개하도록 함으로써 원저작자와의 충돌을 예방하겠다는 방침이다. 이를 통해 원저작자에게 적절한 보상이 이루어지도록 환경을 개선하겠다는 것이다. 실제로 정부는 올해 1월 “AI 학습에 활용된 데이터 목록을 공개하도록 의무화하는 저작권법 개정”을 추진하겠다고 발표하기도 했다. 이처럼 훈련 데이터 투명성을 높이면, 어떤 저작물이 AI에 사용됐는지 창작자가 알 수 있고, 문제 발생 시 이의를 제기하거나 보상을 요구할 근거를 확보할 수 있을 것으로 기대된다. 나아가 문체부는 AI로 생성된 창작물의 보호 기준 정립과 등록 제도 개선 등을 통해, 향후 AI가 만들어낸 결과물에 대한 사회적 인정 범위도 정비하겠다고 밝혔다.
기술적 대응 측면에서도 정부 차원의 지원이 요구된다. 생성형 AI로부터 원본 콘텐츠를 식별하고 위조·합성 콘텐츠를 판별하는 기술 개발을 지원해야 한다. 국내 보안업계와 연구기관들은 AI 이미지에 디지털 워터마크를 삽입하여 추적성을 높이거나, 인터넷상의 대규모 이미지를 감시하여 저작권 침해 의심 사례를 자동 탐지하는 솔루션을 준비 중이다. 정부는 이러한 기술 개발에 대한 R&D 투자와 표준화 작업을 주도하여, 산업계 전반에 걸쳐 디지털 자산 보호 수준을 끌어올릴 수 있다. 또한 국가 중요 데이터베이스(예: 문화유산 아카이브, 방송영상 자료 등)를 안전하게 관리하고, 외부 해킹으로부터 지키기 위한 최신 보안 인프라 구축도 병행되어야 한다. 중요한 것은 AI 시대의 사이버 위협에 대응하는 데 산업계와 정부의 협력이 필수적이라는 점이다. 정부는 기업 간 정보공유와 공조체계를 촉진하여 해킹 위협 정보를 실시간으로 나누고 대비하게 하며, 만일의 침해사고 발생 시 신속히 수사와 피해구제를 지원해야 한다.
마지막으로, 국제 공조 역시 빼놓을 수 없다. AI 기술과 데이터는 국경을 넘나들기 때문에, 한 나라의 노력만으로는 완전한 해결이 어렵다. 국제 협약을 통해 각국이 사이버 범죄 수사 공조와 데이터 거래의 윤리 기준을 공유해야 한다. 현재 유엔을 중심으로 논의 중인 사이버범죄 대응 국제협약에 AI 관련 범죄를 다루는 조항을 포함하거나, G7·G20 등 다자 협의체에서 AI 훈련 데이터의 국제 규범을 만들어가는 노력이 필요하다. 또한 저작권 분야에서는 WIPO를 통한 다자간 협력이 중요하며, 글로벌 AI 기업들이 자발적으로 참여하는 윤리 규약 마련도 장려해야 한다. 예컨대 AI 개발사들의 글로벌 연합을 통해 “모델 학습에 타인의 저작물을 사용할 때는 사전 동의를 구한다”는 등의 원칙 선언을 이끌어내는 방안도 고려해볼 만하다. 국제 공조와 규범 정립은 결국 AI 혁신과 창작자 권리 보호 간의 균형점을 찾는 과정이며, 대한민국도 여기에 적극 기여함으로써 글로벌 스탠더드를 선도할 수 있을 것이다.
결론 및 정책 제언
챗GPT의 지브리 밈 열풍은 AI 기술이 대중에게 즐거움을 주는 동시에, 창작 생태계와 사이버 안전에 새로운 도전을 던지고 있음을 보여주었다. 사례 중심으로 살펴본 바와 같이, AI의 무분별한 학습으로 인한 저작권 침해, 이미지 소유권의 경계 불명확, 해킹을 통한 데이터·모델 탈취 범죄, 원본 데이터의 중요성 등이 복합적으로 드러났다. 이러한 문제들을 해결하고 AI 시대의 지속가능한 디지털 환경을 구축하기 위해, 다음과 같은 정책적 노력이 요구된다:
1. 법·제도 정비: AI 훈련 데이터 이용에 대한 명확한 가이드라인을 법제화해야 한다. 저작권법 개정을 통해 AI 학습용 데이터의 투명한 공개를 의무화하고, 원저작자에게 보상 절차를 마련해야 한다. 아울러 AI가 생성한 콘텐츠의 법적 지위도 정의하여, 분쟁 발생 시 책임소재와 권리범위를 분명히 해야 한다.
2. 기술적 보호와 인증: 정부는 산학연 협력을 통해 AI 산출물 식별 기술과 디지털 워터마크 표준을 개발·보급해야 한다. 플랫폼 사업자들은 AI 생성 이미지임을 표시하는 기술을 도입하고, 원본 콘텐츠에는 위조 방지용 인증 정보를 첨부하는 등 콘텐츠 진본성 보장 체계를 확립할 필요가 있다.
3. 창작자 지원 및 산업계 자율규제: 예술가와 창작자들이 자신의 작품을 보호할 수 있도록 지원 정책을 마련해야 한다. 예를 들면 AI 학습 거부 의사를 표명하는 저작물에 대해서는 크롤러 배제를 기술적으로 지원하고, 침해 발생 시 신속한 권리구제 상담창구를 운영하는 것이다. 동시에 AI 기업들 스스로도 윤리 강령을 수립하여, 저작권 논란이 되는 행동을 자제하고 공정한 데이터 활용 관행을 만들어가야 한다.
4. 사이버 보안 강화: 국가 사이버안보 전략에 AI 연구개발 인프라 보호를 포함시키고, 중요 AI 기업 및 연구기관에 대한 보안 점검과 침해 대응훈련을 정례화해야 한다. 또한 해킹 등 사이버 범죄에 대한 형사처벌 강화와 국제공조로, 데이터 탈취나 모델 유출 시 엄중히 대응한다는 시그널을 줄 필요가 있다.
5. 국제협력 및 표준화: 한국은 주요국과 함께 AI 시대의 지식재산 보호와 사이버 범죄 방지를 위한 국제규범 논의에 적극 참여해야 한다. 예를 들어 글로벌 AI 윤리 이니셔티브를 통해 데이터 수집 원칙, 저작권 존중, 보안 협력 등의 의제를 선도하고, 국제 표준화 기구에서 AI 훈련 데이터 관리 표준을 제정하는 노력을 주도할 수 있다.
지브리 밈으로 촉발된 이번 논의를 교훈 삼아, 우리는 기술 혁신과 권리 보호의 균형점을 모색해야 한다. AI의 발전을 가로막지 않으면서도 창작자의 권익과 기업의 자산을 지키는 길은 분명 존재한다. 그것은 투명성과 책임성에 기반한 기술 활용 문화, 그리고 선제적이고 협력적인 정책 대응이다. AI 이미지 생성의 시대에, ‘모두가 행복한’ 디지털 미래를 만들기 위해 이제 사회 각 분야가 지혜를 모을 때이다. 정부, 기업, 창작자, 이용자 모두가 함께 노력한다면, 첨단 AI 기술과 인간 창의성이 조화롭게 공존하는 새로운 디지털 질서를 구현할 수 있을 것이다. 우리 앞에 펼쳐진 과제를 제대로 풀어나갈 때, 비로소 AI 혁신이 모두에게 이로운 형태로 꽃피울 수 있을 것이다.
<ifsPOST>
- 기사입력 2025년03월31일 17시10분
댓글목록
등록된 댓글이 없습니다.