열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

오태광의 바이오 산책 <90> 선(善)과 악(惡) 2개 얼굴을 가진 신약 개발 인공지능 본문듣기

작성시간

  • 기사입력 2024년12월10일 16시31분
  • 최종수정 2024년12월08일 13시26분

작성자

  • 오태광
  • 국가미래연구원 연구위원,주)피코엔텍 상임고문,전 한국생명공학연구원장

메타정보

  • 1

본문

 컴퓨터는 빠른 수학 계산능력으로 수없이 많은 상황으로부터 가장 적절한 경우의 수를 결정하는 시행착오(Trials and Errors)를 인간보다 훨씬 짧은 시간에 적합한 이상적인 방법을 도출할 수 있다. 하지만, 단순한 수학적 문제 해결 방식만으로 아주 빅데이터로 한꺼번에 다양한 논리로 판단하기에는 컴퓨터도 한계점이 많다. 과학기술 발달은 컴퓨터가 기억할 수 있는 용량이 극대화되었고, 다양한 논리에 대한 엄청난 메모리(Memory) 용량과 아주 빠른 계산이 가능하다. 다양한 빅데이터를 기억/활용할 수 있을 뿐만 아니라, 빠른 속도로 학습 훈련이 가능한 인공지능이 개발되어 인간 두뇌와 같이 적절한 해답을 도출할 수 있다. 

 

최근, 인공지능은 놀라운 속도로 진화하여 심층 기계학습(Deep Machine Learning)과 인간 두뇌를 모사한 인공신경회로망(Artificial Neural Networks, ANN)을 구사할 수 있게 되었다. 급격하게 진화하고 있는 인공지능기술은 빅데이터로 입력된 데이터의 패턴과 구조를 확정한 후, 유사한 특징의 새로운 데이터를 창출할 수 있는 생성형 인공지능(Generative Artificial Intelligence)으로 발전하여 부족한 데이터를 가상으로 만들어 기존의 실제 데이터와 함께 분석할 수 있게 되었다. 생성형 인공지능은 창조적인 분야인 예술, 작문, 소프트웨어 개발, 학문 분야는 물론, 음성이나 문자로 사람과 대화할 수 있는 Chatbot(챗봇)인 CHAT GPT(Chat Generative Pre-trained Transformer), Gemini, Copilot, Wrtn, CUE 등 대화하여 질문하고 답을 할 수 있을 정도로 개발되었다. 

 

챗봇은 초거대언어모델(Large Language Model, LLM)을 사용해 다양한 영어, 한국어, 일본어, 중국어, 독일어, 프랑스 등 세계 각국의 언어를 사용하기 때문에 현재도 수십억 파라미터(Parameter) 이상의 인공지능망으로 구성되고 있다. 지속해서 스스로 데이터를 학습하여 적합한 데이터를 찾는 자기 지도 학습과 대화 상대방을 통해서 얻는 반자기 지도 학습으로 얻어진 데이터를 생성형 인공지능은 실제 데이터에서는 표시할 수 없는 상당량의 텍스트를 스스로 훈련함으로 지속적 진화가 일어나고 있다. 챗봇의 세계시장은 2030년까지 약 27.3 billion US$로 추정(Grand View Research)되고 있다. 생성형 인공지능 중 Open AI로 개발 중인 GPT-5’(Generative Pre-trained Transformer-5’)의 경우, 지금 성장 추세로 진화한다면 60조~100조 개의 데이터 토큰(최소 문장)이 필요하다고 예상하지만, 현재 실제 사용하는데 필요한 고품질의 데이터는 10조~20조가 넘을 수준이다(월스트리트 저널(WSJ, 2024)). 실제 2023년에 출시된 GPT-4는 12조 토큰이고, 현재 개발된 GPT-5’는 8배 많은 96조 개의 데이터가 필요하다고 한다. 계속 적으로 기술이 진화하기 위해서는 부족한 데이터가 보완하여야 하는데, 생성형 인공지능은 실제 데이터를 유사한 통계 속성으로 모사하여 가상적으로 새로 만든 합성데이터(Synthetic data)를 사용하여야 한다. 

 

하지만, 합성데이터에는 큰 문제점이 도사리고 있는데, 실제 데이터가 틀리거나 인위적으로 조작이 된 데이터를 사용하면 실제와는 전혀 다른 생성형 데이터가 생길 수 있어서 심각하다. 특히, 컴퓨터는 2진법을 사용하여 0, 1의 2개 숫자를 사용하기 때문에 프로그램 시, 그런 일은 없겠지만, 사소한 오류가 생겨서 0, 1이 뒤바뀌면, 때에 따라서 전혀 다른 반대의 결과를 만들 수 있다. 간단한 0, 1의 오류로 인공지능이 생명을 위협하는 반대 결과가 쉽게 만들어진다는 가상적인 추정은 인공지능을 사용할 때 주의가 필요하다는 위험성을 예시하고 있다. 

 

여러 가지 예가 있지만, 바이오 연구 중 중요한 신약 개발 시, 치료하는 약을 개발해야 하는데, 간단한 오류로 엄청난 독성을 가진 기존 또는 신규 독성 화합물을 만들 수 있었고, 이런 독성 화합물의 합성마저 인공지능이 친절(?)하게 알려주어 비전공자도 쉽게 합성할 수 있을 정도라고 한다. 특히, 다양한 상황을 가정하여 수많은 데이터를 생성하고, 데이터 부족을 보충할 수 있는 생성형 인공지능이 여러 데이터와 접속하면서 만들어지기 때문에 잘못된 합성데이터를 받아들여서 새로운 데이터를 만들 수 있어서 한 사람의 잘못된 데이터가 잘못된 결과를 만들어 작게는 잘못된 정보로 개개인의 판단을 틀리게 하기도 하지만, 크게는 국가나 국제사회의 발전 방향을 나쁘게 할 수 있는 엄청난 사건이 될 수도 있다.

즉, 인공지능은 올바른 데이터와 올바른 방법으로 주의를 가지고 사용한다면 분명히 인류에 도움이 큰 선한 얼굴이지만, 악의가 있는 조작된 데이터를 만들어 비정상적으로 사용한다면 인류 미래를 장담하기 어려운 극단적인 악한 얼굴을 가진 기술이 될 것이다. 따라서 인공지능에 대해서 올바르게 교육을 받고 위험성을 예측하는 철저한 교육으로 과학적 윤리를 강조하는 것은 당연하다.

 

< 신약 개발 인공지능의 오용으로 심각한 생화학 독소 제조 예 >

 

 인공지능을 사용하여 신약을 만드는 기술이 잘못 사용된다면, 무시무시한 생화학 무기로 오용될 수 있다는 연구 결과가 미국, 영국, 스위스 과학자가 협력하여 발표(Nature Machine Intelligence(4(3):189-191 (2022)) 한 “Dual Use of Artificial Intelligence-powered Drug Discovery” 제목의 논문으로 발표하였다. 생물무기 협약에 따른 매 2년 열리는 “컨버전스” 컨퍼런스(“Convergence” conference)에서 신약 개발 회사가 인공지능 오용(Misuse)으로 새로운(de novo) 생화학적 무기를 만들 수 있다는 것을 컴퓨터로 입증(Computational proof)하기 위해서 생성형 인공지능을 개발하였다. 개발 기본원리는 새롭게 생성된 화학 분자를 신약으로 더 나은 설계를 위해서 질병 치료용 바이오마커(Biomarker)에는 활성이 강하고 인체에는 해로운 독성 바이오마커에 작동하는 화합물은 제거할 수 있는 데이터를 기계 학습(Machine Learning)모델로 구축하는 방법을 사용하였다. 즉, 질병 치료에는 효과가 있고, 독성이 없는 안전한 화합물을 신약으로 디자인하고자 하였다. 

 

하지만, 필수적인 바이오마커인 질병 치료에만 작용하고, 다양하게 존재하는 다른 바이오마커인 단백질에는 작용하지 않아서 나쁜 기능을 회피할 수 있다고 자만하였다. 하지만, 인공지능이 잘못하여 데이터가 잘못 사용될 수 있다는 잠재적 위험성은 전혀 생각조차 하지 못하였다. 예를 들면, 잠재적인 오용 위험성이 흔히 잘 알려진 아주 높은 고병원성 에볼라바이러스나 심각한 신경독소조차도 이런 방법으로 인공지능을 사용하면 위험성이 있다고 인지하지 못하였다. 인간 질병 표적에 새로운 치료 저해제를 찾는 목적으로 생체 활성을 예측하는 기계 학습모델을 기반을 둔 “MegaSyn”이란 인공지능 알고리즘(Urbina F, Lowden CT, Culberson JC & Ekins S <10.33774 /chemrxiv-2021-nlwvs> (2021))을 기반으로 한 상업용 형 분자 생성기(Generative molecule generator)를 설계에 사용하였다. “MegaSyn”은 정상적으로 작동하면 예측되는 독성물질 생성에는 분리하여야 하고, 예측되는 질병 표적에 접근하여 바이오 활성이 있는 분자생성은 유리하게 보상되어야 한다.

 

같은 “MegaSyn”으로 de novo 분자생성 시 컴퓨터 언어인 0과 1의 수치를 거꾸로 쉽게 1과 0으로 바꿀 수 있듯이 컴퓨터 논리를 거꾸로 뒤집어 인공지능을 가동하여 화학 분자생성을 제안(Proposal)하였더니, 독성이 있거나 질병 표적에 작동하는 분자가 모두 보상하는 모델이 되었다. 즉, 간단하게 바꾸어도 사실은 독성은 없고 질병 치료가 가능한 결과가 나와야 하는 약효와 독성이 모두 있는 전혀 필요가 없을 뿐만 아니라 독성으로 해악(害惡)이 될 수 있는 결과를 얻을 수도 있을 것이다. 이런 모델로 실제로 인체에 치료제로 사용될 수 있는 생체 활성이 있고, 합성이 가능하면서 쉽게 생체에 흡수되는 일반 약물 데이터베이스(Data base) 모음(Collection)으로 인공지능을 학습(Learning)시키면서 훈련하여 신경질환 치료제 신약 발굴에 사용하여 보았다.

 

결론적으로 인공지능이 설계하여 만든 분자생성물은 독성을 나타내는 치사량(Lethal Dose, LD50, 검사 집단(동식물, 사람)이 50%가 사망하는 화합물의 용량)과 신경질환(Neurological diseases) 치료 화합물 추출에 사용하는 공개 데이터를 참고하여 점수로 표시하여서 점수가 높은 순위로 약물을 검정하였다. 훈련된 생성 소프트웨어(Generative software)인 “Megasyn”는 누구나 쉽게 사용할 수 있는 공개된 일반적인 오픈-소스 소프트웨어(Open-source software)와 비슷하여 누구든지 사용할 수 있었다. 최종적으로 생성형 인공지능에 독성 분자의 범위를 줄이려고 일부러 20세기에 가장 악명이 높은 독성물질인 신경 작용제 VX(북한 김정남 독살에 사용함), Novichoks(러시아에서 개발, 신경독소 화학무기)를 생성형 인공지능의 생성 모델로 구동(데이터를 잘못 사용 때 위험성을 파악하기 위한 시도)하였다. 

 

이런 위험한 시도를 주도한 스위스 Spiez lab.(The Swiss Federal Institute for NBC(핵, 생물학, 화학) Protection(Spiez Laboratory)은 신약 개발 시 사용하는 인공지능의 오용을 도출( Presentation on how AI technologies for drug discovery could be potentially misused)하기 위해서 실험적으로 실행하여 위험성을 모두에게 알리기 위해서 공공에 발표하였다. 결과는 일반인이 사용하는 5년 이상 사용한 노트북(Macintosh(Apple))으로 단지 6시간 작업한 결과 <그림 1>과 같은 위험성이 있는 독성물질을 40,000개의 분자를 설계할 수 있었고, 이중 상위 5,000개의 화합물 중 이미 잘 알려진 VX 유사체로 독성 치사율(LH50)이 유사한 화합물과 심근경색, 심부전, 고혈압에 작용하는 ACE 저해제(Angiotensin Converting Enzyme Inhibitors)를 증가시키는 새로운 화학물질을 생성한 놀라운 결과를 얻었다. 이중, 2.000개의 데이터 세트가 <그림 1>에 도시하였고, 무서운 사실은 <그림 1>의 왼쪽 그림에서는 붉은색으로 표시한 화합물은 인공지능“MegaSyn”이 가상으로 생성한 화합물인데, 생성된 화합물이 기존화합물보다 독성이 높은 것이 많았고, 하늘색으로 표시한 화합물은 기존에 존재하는 LD50 화합물이다. 생성 오른쪽 그림에서 보듯이 아주 높은 것도 표시되는 다수의 화합물은 가상적인 결과지만, 실제 합성이 된다면 엄청난 위험성을 내포하고 있다. 

 

c66d6e3a97f470fbae3d3af00577277d_1733103<그림 1> MegaSyn 인공지능이 생성한 예측 생성 분자 화합물(붉은색)과 기존 화합물(하늘색)의 LD50 상위 2,000개의 데이터 세트와 VX의 LD50과 비교 

        출처 ; Fabio Urbina et al(2022) Nature machine intelligence, 4(3), 189-191 

 

초기 독성 모델의 생성형 인공지능의 연구목적은 시험관 실험을 통해서 독성을 확인하기 이전에 의약품, 소비재, 응용분석용 제재를 개발할 때 가상 상황에서 신속하고 효과적으로 독성물질을 제거하기 위해서인데, 오히려, 반대상황으로 독성물질(VX 등)의 데이터를 함께 하여 생성형 인공지능을 가동하면, 새로운 강한 독성물질을 생성시킬 수도 있다는 가능성이 있어서 높은 경각심을 준다. 반대로 독성을 정말 더 잘 예측할 수 있는 생성 모델을 더 잘 조종할 수 있다면, 치명적인 분자 물질로 채워진 화학적 공간 영역에서 새로운 유용한 분자를 설계할 가능성도 있다. 가상 분자 합성 가능성을 평가하거나, 역 합성 소프트웨어를 사용하여 만드는 방법을 탐색하지 않아도 새로운 분자의 새로운 설계 프로세스에 쉽게 연결할 수 있는 상용 및 오픈소스 소프트웨어를 쉽게 사용(Genheden S et al. J Cheminform 12, 70, (2020))할 수 있어서 인공지능이 생성한 화합물은 누구나 쉽게 합성이 가능할 수 있다는 점은 오히려, 누구든지 독성물질을 쉽게 합성할 수 있을 것으로 판단할 수 있어서 우려되는 바가 많다. 

 

특히, 인공지능이 생성형 독성 화합물을 챗봇을 이용하여 스스로 합성하거나, 나쁜 의도가 있는 사람이 의도적으로 합성생물학(Synthetic Biology)적 방법으로 설계-테스트-제작-실험(DTBL)을 활용하여 합성에 성공하면 어떤 일이 벌어질지 생각하기도 끔찍할 수 있다. 어쩌면 핵폭탄보다 백배 천배 무서운 치명적인 생화학 무기가 전문가 아닌 일반인이 어떤 장소에서도 만들 수 있다는 공포를 느낀다. 따라서 신약 발견을 위한 인공지능을 작동하기에는 데이터가 부족하여 유사성이 있는 가상데이터를 만들어 사용하기 때문에 여러 가지 문제가 생길 수 있다. 가장 근본적인 신약 개발 인공지능의 문제점은 데이터 부족인데, 생성형 인공지능을 사용하기 때문에 생겨서 부족한 데이터를 보충하는 방안에 대해서 많이 노력이 필요하다.

 

<신약 개발 인공지능에 데이터 부족 최근 해결안>


 인공지능(AI)은 컴퓨터 지원 약물 설계(CADD)에 중요한 역할하고 있는 기술이고, 주로 기계학습(Machine Learning) 중 딥러닝(Deep Learning)을 사용하는 알고리즘을 사용하였다. 인공지능을 사용한 신약 개발은 컴퓨팅 기억 하드웨어 및 소프트웨어의 급격한 발전은 신약 개발에 인공지능 활용을 가속화하고 있다. 신규약물 발견에 인공지능을 활용하는 데에 대해서 개발 초기의 의구심은 점차 사라지고 있어서, 의약 화학 분야 발전에 큰 역할을 하고 있다. 

 

하지만, 전술한 바와 같이 인공지능이 가진 2개의 얼굴 덕분에 심지어, “신약 개발용 인공지능은 득보다 큰 실을 막는 방법이 중요 (AI in Drug Discovery: Avoiding Doing More Harm Than Good)” 라는 정도로 부정적이라는 생각은 Nature Machine Intelligence(2022)에서 초기 2개 얼굴(Dual Use of Artificial Intelligence-powered Drug Discovery)을 발표한 Fabio Urbina et al이 새로운 논문에서 발표하였다. 인공지능을 사용하여 신약을 개발하는 데는 현재 분명한 한계점은 있는데, 가장 주목할 만한 점은 결국 사용하는 데이터의 양과 질이다. 나쁘고 옳지 않은 질이 나쁜 데이터가 포함되는 것은 큰 문제가 되고, 옳은 데이터도 양면의 얼굴이 있다는 해결하기 어려운 큰 한계점이 있다. 데이터의 양은 많이 있다고 하더라도 불충분하고, 레이블이 지정되지 않고, 균일하지 않은 데이터(Insufficient, unlabeled, and non-uniform data)는 컴퓨터가 옳게 이해하지 못하여 큰 도움이 되지 못한다. 

 

또한, 생성형 인공지능이 생성한 분자 데이터도 기존의 실제 데이터와 유사점이 너무 커서 데이터로 가치가 낮다면, 인공지능이 적절하게 벤치마킹(Benchmarks)하지 못하여 데이터로 사용하여 좋은 결과를 만들 수 없게 된다. 약물 데이터 중 확실히 창의적으로 차별화되어 데이터 가치가 큰 지식재산권(Intellectual property rights (IPRs))은 공적으로 사용할 수 없어서, 더 좋은 결과를 얻을 수 있는 문제 해결에 장애로 작용한다.

 

기본적으로, 컴퓨터가 다양성이 아주 풍부한 생물(인간, 동식물, 미생물, 바이러스 등), 의학, 식품, 환경, 생물공학 등의 모든 학문 전체를 이해하기에는 아직은 대단히 부족하다. 범위를 축소하여서 단지 화학 구조 대용물(Proxy) 데이터 및 신약후보 화합물에 특이적 화학적 결합하는 고분자 질병 표적물인 리간드(Ligand)에만 집중한다고 하더라도 복잡한 다양한 3차원 고분자 구조를 전체적 해석하는 방법으로 해결하기에는 아직은 인공지능 능력은 부족하다. 특히, 다양한 질병 표적을 바이오 마크 사례별, 수도 없이 많은 다른 바이오 마크와의 복잡한 상관관계를 인공지능이 이해하기는 현재로는 어려운 실정이다.

 

결국, 한 분야의 깊이 있는 지식에 대하여 인공지능을 훈련하여 얻을 수 있는 데이트는 가능하겠지만, 다양한 분야의 상관 및 연관관계를 고려한 데이터는 부족하여서 인공지능을 학습하는 데 한계가 있고, 기존 데이터가 풍부하지 않기 때문에 생성형 인공지능을 사용하더라도 문제점을 해결하기 어려울 것으로 추정한다. 충분한 정규화 데이터가 없는 현재 상황에서도 좋은 신약을 만들 수 있는 결과를 만들 수 있는 인공지능 모델이 연구되어서 소개(Amit Gangwal et al(2024) Current strategies to address data scarcity in artificial intelligence-based drug discovery: A comprehensive review, Comput biol Med. 179: 108734.doi)되고 있다. 즉, 전이 학습(Transferring learning (TL)), 능동 학습(Active learning (AL)), 단일 또는 원샷 학습(Single or One-shot learning (OSL)), 멀티태스크 학습(Multi-task learning (MTL)), 데이터 증강 학습(Data augmentation (DA)), 데이터 합성(Data synthesis (DS)), 등과 멀티태스크 훈련을 위해서 데이터의 자체를 손상하지 않고 공동 플랫폼에서 독점 데이터를 공유할 수 있게 하는 연합학습(Federated learning (FL))이 소개되고 있다. 이런 많은 인공지능 학습 방법이 개발되고 있어서 데이터 질을 높이면서 인공지능 신약 개발이 가시화되고 있어서 문제시되는 인공지능의 2개의 얼굴 중 우리가 원하는 선과 악 중 1개 또는 2개 모두를 결정할 수 있게 되기를 기대한다. 

 

<맺 는 말>


 인공지능을 정확하게 훈련하기 위해 규격화된 질적으로 우수한 데이터가 입력하는 동시에 같은 목적을 결과를 얻는데 다양한 방향으로 분석한 풍부한 데이터로 학습시키면 인공지능은 우리가 원하는 최종 성취물을 얻는 데 문제가 없을 것이다. 신약을 개발하는데도 기존의 방법으로는 거의 2~3조 원과 12~15년 정도의 긴 연구 기간이 필요한데, 인공지능을 신약 개발에 사용하면 아주 작은 비용과 연구 기간에 신약을 개발할 수 있다. 

그렇다면, 신약을 성공적으로 개발하기 위해서는 규격화된 질 좋은 신약 개발용 데이터의 양을 충분하게 인공지능에 입력할 수 있어야 할 것이다. 실제로는 양질의 데이터가 양적으로는 풍부하지 않기 때문에 데이터 연관관계를 이용하여 생성형 인공지능으로 가상적인 데이터를 만들어 부족한 데이터를 충분히 채울 수 있게 하는 것이다. 따라서 기계훈련 하는 실제 데이터와 가상데이터의 양과 질에 따라서 우리가 원하는 결과일 수도 있고, 전혀 다른 결론을 얻을 수 있을 것이다. 

 

더구나, 인공지능이 자의적으로 하든지, 또는 나쁜 의도를 가진 사람이 인위적 데이터 나쁜 방향으로 조작하여 데이터를 입력하면 신약 개발 때 치료 약이 아닌 독성물질을 만들 듯이 인간에게 끔찍한 피해를 주는 결론으로 조작하는 위험성도 있을 수 있다. 신약 개발을 하는 인공지능이 놀랍게도 최악의 독극물인 VX나 Novichok과 같은 신경성 맹독성의 생화학 무기를 만들 수 있고, 심지어, 개인이 사용하는 평범한 노트북으로 6시간 만에 40,000만 개나 되는 가상 맹독성 물질을 만들어 내는 결과에 정말 끔찍한 일이다. 전문가가 아닌 악의를 가진 일반인도 생화학 무기를 만들 수도 있다고 하니 핵폭탄보다 더 무서운 일이 일어날 수도 있다고 생각하면 인공지능이란 문명의 이기(利器)를 사용하는데 윤리성 문제가 매우 중요하게 드러나고 있다.

 

인공지능을 이용한 공정의 생산성 향상이나 기능성 신규 물질과 같은 유용한 결과를 만드는 최첨단 기술로 활용되는 데는 기대하는 바가 크지만, 인공지능이 나쁜 방향인 잠재적인 이중적인 얼굴을 가지고 있다는 점에도 인식을 높여 감시체계를 높일 필요가 있다. 인공지능이 선과 악 2개의 얼굴을 가진다는 문제점을 해결하기 위해서는 산학연관뿐만 아니라, NGO 기관까지 함께 참여하여 잠재된 문제점 해결에 관한 지속적 논의로 정책적 대책을 마련하여야 한다. 물론, 과학 전공자의 윤리 교육을 위한 노력은 물론이고, 관련되는 다른 분야 전공자나 인공지능을 이용하는 모든 사람이 윤리의식을 가져야 한다고 생각한다.

 

인류에게 가장 이로움을 줄 수 있는 인공지능이란 최신 과학기술이 인류를 멸망의 길로 몰 수도 있다는 것을 인식하여야 한다. 선과 악의 두 개의 얼굴 가진 인공지능도 결국은 인간이 하기 나름이기 때문에 기술 안전성을 확보하는 연구 노력은 중요하고, 방지할 수 있는 교육과 보편적인 윤리지침 작성하고 준수하는 노력은 매우 중요하다. 편리성과 효율성을 달성할 수 있는 인공지능을 만든 인간은 인공지능으로 생기는 문제점도 미리 반드시 해결하여야 한다.

<ifsPOST>

 

1
  • 기사입력 2024년12월10일 16시31분
  • 최종수정 2024년12월08일 13시26분

댓글목록

등록된 댓글이 없습니다.