열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

한국사회의 Al 전략은? 본문듣기

작성시간

  • 기사입력 2024년08월11일 17시15분
  • 최종수정 2024년08월10일 19시05분

작성자

  • 윤기영
  • 한국외대 경영학부 미래학 겸임교수, 에프엔에스미래전략연구소장

메타정보

  • 6

본문

 들어가기


인공지능 경쟁력은 국가 경쟁력의 기반을 구성하는 것처럼 보인다. 인공지능은 과학기술 발전을 가속화하며, 반복적 작업을 줄여 창의적 목표에 집중할 수 있도록 한다. 새로운 콘텐츠를 쉽게 작성할 수 있도록 하여 예술과 미디어를 민주화할 수 있는 기반이 된다. 컴퓨터 코딩을 지원하여  그 사회의 디지털 전환을 빠르게 한다. 이뿐만 아니다. 사이버 공격력과 사이버 공격 방어력도 키울 수 있다. 

 

인공지능 경쟁력이 국가 경쟁력의 기반이고 기준이라면 한국사회는 어느 정도의 경쟁력을 가지고 있을까? 스탠포드 대학은 매년 인공지능 인덱스 보고서를 발표하는데, 이 보고서를 기준으로 한국의 인공지능 경쟁력을 엿볼 수 있다. 참고로 이 보고서는 지난 4월에 발표되었다. 이 보고서를 요약한 뉴스나 보고서가 다수 나왔다1). 올해의 보고서는 파운데이션 모델 순위에서 한국을 제외한 실수를 보였다. 이후 파운데이션 모델인 클로바엑스(CLOVAX)를 개발한 네이버 등이 적극적인 이의를 제기했고, 이 보고서를 작성한 팀에서 실수를 인정하고, 관련 내용을 수정하겠다고 약속했다2). 파운데이션 모델이란 대규모 데이터셋으로 사전 학습된 거대 인공신경망 모델을 가리킨다.  OpenAI의 GPT와 DaLL-E, Anthropic의 Claude, Google의 Gemini, Meta의 Llama, Naver의 CLOVAX 등이 파운데이션 모델이다. 사전 학습된 모델에 특정분야에 대한 정보의 추가학습이 가능하다. 예를 들어 구글의 Med-Gemini는 Gemini에 의료용 정보를 추가학습한 것이다.  

 

이 보고서는 서두에 10개 주요 시사점을 요약했고, 각 장의 내용의 주요내용을 별도록 정리해서 쉽게 이해할 수 있도록 했다. 해당 보고서는 인터넷에서 쉽게 다운로드할 수 있다3). 보고서가 500쪽이 넘으나 방대하고 상세하다. 정보와 지식 과부하에 시달리는 독자에게는 이 보고서는 고맙지만 번거롭다. 이를 위해 우리나라에서 이미 내용을 요약한 자료가 적지 않다4). 이런 요약 자료의 대부분이 보고서의 요약부분을 정리하거나 번역하여, 해당 정보에 접근성을 높였다는 점을 높이사야 한다. 

 

이 글은 2024년 인공지능 인덱스 보고서의 주요 10개 시사점이 한국사회에 어떤 의미를 지니는 지를 개략적으로 다룬다. 개인이 어떻게 적응하고 대응해야 할지, 기업 전략과 국가 정책의 방향은 어때야 할 지를 어안 렌즈로 전망하겠다. 거시적 접근임에도 새의 눈으로 본 것이 아니라 어안 렌즈라 한 이유는 필자가 가진 한계 때문이다. 디지털 전략과 미래연구를 곱하고 더해서 연구하는 개인 연구자이므로 이 글이 체계성을 가졌다고 주장하기에는 무리가 있다. 이 글의 어떤 부분은 심한 왜곡과 편향이 있을 수 있음을 미리 밝히겠다. 동료 검토를 통해서 건강한 비판을 받지 않았기 때문이다. 그럼에도 이 글에서 통합적으로 문제를 진단하고 대안을 마련하려 했다. 전략과 정책을 위한 의제 설정 단계에서 건강한 비판은 거 전략과 비판을 밋밋하게 만드는 위험이 있다는 점을 강조한다면 오히려 동료 검토를 받지 않는 것도 일종의 선택이 된다. 

 

이 글은 2024년 인고지능 인덱스 보고서가 제시한 10개 시사점을 일단 정리했다. 각 시사점이 가진 의미, 보고서가 간과하거나 혹은 더 강조할 내용을 정리하고, 한국사회나 기업이 채용할 수 있는 전략 대안을 제시했다. 글의 마지막에 전체 내용을 정리했다. 


< 10개 주요 시사점 >


1.  AI vs 인간 

 

 AI가 일부 분야에서 인간을 앞섰지만, 복잡한 과제에서는 아직 뒤처져 있다. 보고서에서 이미지 분류, 시각적 추론, 영어 이해 등 분야에서 인공지능이 인간을 능가하나, 고난도 수학 문제 해결, 시각적 상식 추론 등 분야에서 인간이 뛰어나다고 진단했다. 

 

생성형 인공지능의 역량수준이 빠르게 올라가고 있다. 인공지능에게 지능지수 테스트를 한 결과 ChatGPT-4가 85점, Claude-3이 101점을 맞았다5). 인간 평균이 100이니 언뜻 보면 인공지능이 인간보다 똑똑하다. 그러나 한계가 적지 않다. 일단 시각 상식 추론이 부족하다 보니, 맹인을 대상으로 하는 지능지수 검사를 했다. 사람의 능력을 지능지수로만 측정할 수 없다는 것도 강조해야 한다. 창조 지능, 신체 지능, 사회적 지능, 감성 지능, 예술 지능 등의 다중 지능이 존재한다.

 

인공지능에게 사람 정도의 다중 지능을 요구할 것은 아니며, 경제적으로 충분히 가치가 있다면 충분하다. 인공지능이 발달할수록 사람과 인공지능 간의 일자리 경쟁 지역이 증가할 것으로 전망하는 것은 충분히 합리적이다. 예를 들어 생성형인공지능의 발달은 자율주행 자동차 기술의 발전에도 기여하고 있다. 미국은 샌프란시스코, 중국은 우한에서 자율주행자동차 시범운행을 하고 있다. 우리나라의 경우 올 8월부터 자율주행 택시를 시범 운행할 계획이다. 

 

운수 관련 일자리가 우리나라에만 100만개가 되다 보니. 일자리 관련한 정당한 전환(Just Transtion)을 위한 정책이 필요하다. 인공지능이 인간 보다 못하는 분야가 존재한다는 점은 한 편해당 분야를 키우는 교육체계가 필요하며, 다른 한편으로는 우리 한국사회가 어느 정도 시간적 여유를 가지고 있다는 의미다. 이를 뒷받침하는 일자리 정책, 교육 정책 및 과학기술 정책을 세워야 한다.

 

2.  연구 주도권


산업계가 AI 연구를 주도하며, 산학 협력도 증가하고 있다. 첨단 인공지능 연구 분야에서 산업계의 주도권이 지속되고 있다. 2023년 산업계에서 51개의 주목할 만한 기계학습 모델을 개발한 반면, 학계에서는 15개에 그쳤다. 산학 협력을 통한 모델 개발도 21개로 증가했다.


국내의 경우에도 대규모 언어모델을 민간이 주도하고 있는 것으로 봐야 한다. 정부가 선행적인 고위험의 연구개발에 투자하고 생태계를 구축하고, 기업이 창의성과 기민성으로 적극적이고 대규모 투자를 진행하는 역할 분담을 하는 것이 일반적이다. 그렇게 보면 우리나라도 실정이 크게 다르지 않는 것으로 보인다. 

 

2019년 문재인 정부는 ‘인공지능 국가전략’을 발표했다. 국가전략에서 발표한 3대 과제는 세계를 선도하는 인공지능 생태계 구축, 인공지능을 가장 잘 활용하는 나라, 사람 중심의 인공지능 구현이다6). 2023년 윤석열 정부는 ‘대한민국 초거대 AI도약’ 행사를 하며 인공지능 국제협력 확대, 전국민 인공지능 일상화 추진, 디지털 권리장전 수립, 인공지능 윤리・신뢰성 확보 등 ‘대한민국 인공지능 도약방안’을 발표했다7)

 

비판적으로 보면 문재인 정부와 윤석열 정부의 인공지능 전략은 밋밋하다. 모든 것을 잘하겠다는 것으로 보이기 때문이다. 한정된 자원으로 모든 것을 잘하겠다는 것은 아무 것도 안 하겠다는 것과 같다. 과거이 이해관계의 틀에 미래 전략이 구속되고 갇혀지는 것이다. 더구나 한국이 인공지능에 쓸 수 있는 예산규모가 부족하다는 점, 대신 인적 역량이 높다는 점, 그 인력이 해외로 유출되고 있다는 점에 유의해야 한다. 밋밋한 전략을 재검토할 필요가 있다. 이는 인공지능 국가전략이 경로의존성에서 벗어날 수 있도록 해야 한다. 

 

3.  개발 비용 증가

 

최첨단 인공지능 모델의 개발 비용이 급격히 증가하고 있다. AI Index의 추정에 따르면, OpenAI의 GPT-4 모델 훈련에 7,800만 달러의 컴퓨팅 비용이 소요되었고, Google의 Gemini Ultra는 1억 9,100만 달러가 들었다. 이는 고성능 AI 모델 개발에 막대한 자본이 필요함을 보여주며, 이는 기술 격차를 더욱 벌릴 수 있는 요인이 될 수 있다. 

 

매개변수 규모가 증가하고, 차별적 경쟁력 확보를 위해 다양한 모델을 개발하는 것이 원인이다. 생성형 인공지능에 대한 경쟁이 치열하다 보니 GPU의 가격이 올라가는 것도 원인의 하나다. 다만 개발비용이 계속 증가할 것으로 기대되지 않는다. 

 

최근 GPU를 공급하는 회사인 엔비디아 주가가 2024년 6월 중순 정점을 찍은 이후 하락하기 시작했다. 무어의 법칙이 다시 재개되기 전에는 매개변수 증가도 한계에 부딪칠 것이다. 아크 인베스트의 2023년 보고서는 인공지능 학습 비용이 지수적으로 하락할 것으로 전망했다8). 비슷한 성능을 보이는 AMD의 GPU가 NVIDIA에 비해 그 가격이 1/4에 불과하다9). 최근 MS Azure는 AMD GPU로 서비스를 제공하고 있다. 경쟁은 GPU 가격을 합리화하게 할 것이다.

 

최첨단 인공지능을 개발할 것이 아니라면, 개발 시기를 결정하는 데는 전략적 판단이 필요하다. 더구나 LLM 경쟁이 과열되었다는 것에 유의해야 한다. 한국사회도 이 과열된 열기에 동참하는 데는 고려할 부분이 적지 않다. 인공지능 주권의 차원에서는 지금이라도 투자해야 할 것 같으나, 오픈소스 LLM까지 확장해서 생각한다면, 인공지능 주권을 고집할 실익을 재점검해야 한다.

 

4.  미국이 AI 모델 개발 선두


미국이 중국, EU, 영국을 제치고 최고 수준의 AI 모델 개발을 주도하고 있다. 2023년 미국 기관에서 61개의 주목할 만한 AI 모델을 개발했으며, 이는 EU의 21개와 중국의 15개를 크게 앞선다. 이러한 격차는 향후 AI 기술 패권 경쟁에서 중요한 의미를 갖는다. 


스탠포드 인공지능 인덱스 2024 초기 보고서에 우리나라의 인공지능 파운데이션 모델이 등장하지 않았으나, 우리나라 관련 기업의 적극적인 항의로 우리나라 모델이 추가되기는 했다. 안타까우나 그렇다고 해서 상황이 크게 바뀌지는 않을 것으로 보인다. 

 

대규모언어모델(Large Language Model, LMM)이 한국어를 포함하여 다국어를 지원하고 있다는 점에서, LMM(대규모언어모델)에 국경이 없으며, 비관세 무역장벽도 작동하지 않는다. 이런 상황이라면 미국 등의 LMM에게 안방을 내줘야 할 것 같다. 정부에서 보안 등의 문제로 이에 대한 제약을 하고 있다. 그러나 보안 문제를 해결한 AIaaS(AI as a Service)의 등장은 그러한 제약을 쓸모없게 할 것이다. 

 

우리가 인공지능 분야의 경쟁에서 뒤떨어지지 않기 위해서는 새로운 전략 패러다임이 필요할 것으로 보인다. 예를 들어 오픈소스 LMM 참여 및 활용전략을 들 수 있다. 오픈소스란 소스 코드나  설계서가 공개되어 누구나 자유롭게 사용, 수정, 배포할 수 있는 소프트웨어나 하드웨어를 의미한다. 

 

5.  AI 책임성 

 

LLM의 책임성에 대한 표준화된 평가 체계가 부족하다. 주요 개발사는 각기 다른 책임성 벤치마크를 사용하고 있어, 상위 AI 모델들의 위험성과 한계를 체계적으로 비교하기 어렵다. 이는 AI의 윤리적 발전과 안전한 활용을 위해 시급히 해결해야 할 과제이다. 


책임성 평가 기준에 대한 표준화는 필요할 것이긴 하나, 이해관계자가 간의 의견을 일치시키기 어려울 수 있다. 미국의 인플레이션 감축법(Inflation Reduction Act, IRA), 기후협약 탈퇴 등의 사례를 참고해야 한다.

 

그렇게 되면 인공지능 개발에서 미국이 선두를 차지하고 있는 상황과 인공지능 책임의 문제가 결합되면, 한국이 미국의 인공지능은 이용하는데 이용으로 인한 책임은 이용자가 져야 하는 상황이 될 수 있다. 인공지능 경쟁에 뒤쳐진 유럽의 경우에도 이에 대한 인식이 명료하다. 유럽의 인공지능 규제법 4조는 인공지능 문해력을 규정하고 있다. 이 규정은 AI 개발자 및 공급자는 AI 사용자가 최대한 충분한 수준의 AI 이해력을 보장하기 위한 조치를 취할 것을 요구하고 있다. 우리나라도 유사하면서도 보수적인 정책과 전략이 필요할 수 있다.

 

6.  생성형 AI 투자

 

생성형 AI에 대한 투자가 폭발적으로 증가했다. 전체 AI 민간 투자는 감소했지만, 생성형 AI 투자는 전년 대비 8배 가까이 증가하여 252억 달러에 달했다. 이는 생성형 AI가 미래 기술 혁신의 핵심으로 자리잡고 있음을 보여준다.

 

생성형 AI에 대비되는 인공지능이 판별형 인공지능(Discriminative AI)이다. 꽃 사진을 주면 그 꽃의 이름을 맞추거나, 음성을 인식하여 글자로 변환시켜주거나, 다요인 분석으로 예측(prediction)을 수행하는 인공지능 등이 판별형 AI에 해당한다. 신경망 알고리즘의 등장으로 인공지능이 크게 성공했다. 음성인식율이 증가했으며, 사진 판독은 사람을 앞섰다. 그러나 한계가 있었다. 2020년 Economist 지의 계간지인 Technology Quarterly는 2020년 인공지능의 한계가 기대한 것보다 빠르게 다가오고 있다는 내용을 담은 특별호를 내었다10). 당시 신경망 알고리즘 인공지능이 인공지능의 겨울까지는 아니지만 가을 정도로 불릴 만큼 투자가 줄 것으로 전망했었다. 

 

GPT-3가 2020년 6월 등장하여 잠깐 관심을 끌었으나, 환각 등의 문제로 그 관심이 빠르게 사라졌다. 당시 LLM에 투자했던 많은 거대기업이 투자규모를 줄였다. 그러다가 2022년 11월 ChatGPT가 상당한 성능을 보이면서 상황이 바뀌었다. 전세계적으로 300개 이상의 LLM이 개발되고 있는 상황이다. 그러다 보니 GPU의 가격이 고공행진을 하고, 이는 LLM 개발비용을 늘리고 있는 상황이다.

 

우리나라에서도 생성형 AI에 대한 사업이 늘고 있다. 나라 장터에 올라온 사업을 보면 2024년 이후 50여건에 달한다. 현재 생성형 AI가 과열되어 있으며, 이로 인해 하드웨어 및 개발 비용이 늘어나고 있다는 점, 환각 11)등의 인공지능의 한계가 여전히 존재하며, 그 환각 문제가 생성형 인공지능의 구조적 문제로 급진적 해결이 어렵다는 점에서 생성형 인공지능 도입 사업을 전략적으로 고민해야 한다. 여기서 ‘전략적’이라는 표현을 쓴 이유는 도입 목적과 기술 추이 및 그 한계를 인식하고 도입을 추진해야 함을 강조하기 위한 것이다. 

 

참고로 환각 문제를 극복하기 위한 대안으로 검색증강생성(Retrieval Augmented Generations, RAG)이 등장했으나, 환각 문제를 다소 완화하는 것이지 궁극적 대안이 되기 어렵지 않을까 한다. RAG란 특정 질의와 관련된 문서를 찾아서 대규모 언어모델에 입력하고 이후 해당 질의를 하는 일종의 프롬프트 기법이다. 문제는 해당 문서를 정확하게 찾지 못할 수 있고, 열린 질문에 모든 문서를 마련할 수 없으며, 제도 및 환경이 변화하면 관련 문서를 수정해야 하는데 관련 비용이 적지 않게 들 수 있으며, 복수의 문서를 융합하여 RAG를 하는 경우 환각 비율이 증가하는 것으로 보이기 때문이다. 

 

생성형 인공지능 활용 전략으로 오픈소스 LLM을 들 수 있다. 오픈소스 LLM에 대해서는 앞에서도 언급했는데, 여기서 좀 더 자세히 다루겠다. 대부분의 오픈소스 LLM은 매개변수 규모다 수십억 개에서 수백억 개 정도인 sLLM(small LLM)이며, 대부분 한국어를 지원하지 않는다. 최근 상황이 바뀌어 한국어를 지원하는 오픈소스 LLM이 늘었다. 메타의 Llama 3.1, Cohere의 Command R+ 등이 이에 해당한다. 오픈소스인 Llama3-70B 모델에 한국어와 한국관련 지식을 추가 학습시킨 Bllossom-70.8B 도 있다. 지는 7월 23일 공개된 Llama 3.1은 405B, 70B, 8B 서브 버전으로 나왔다. 여기서 B는 10억을 뜻하는 단위 billon이다. 405B면 매개변수가 4,050억 개, 8B면 80억 개에 해당한다. 2022년 11월 공개된 ChatGPT의 경우 매개변수가 1,750억 개였다. Llama 3.1은 매개변수가 GPT 3.5의 두 배가 넘는 셈이다. 8B 모델은 개인용 컴퓨터나 모바일에서도 운영이 가능하다. 필자도 노트북에 설치하여 테스트를 했는데 그 결과가 그럴 듯하다. 405B 모델은 첨단 LLM에 속한다. 

 

기업을 포함한 조직은 Lean Startup의 방법론12)으로 오픈소스 LLM을 응용하여 도입하는 전략을 검토할 필요가 있다. 이때 LLM을 기업내에 두는 On Premise가 가능하므로 회사 기밀 유출이나 의외의 비용이 지출되는 위험을 방지할 수 있다. On Premise란 IT 시스템과 소프트웨어를 자체적으로 운영하는 물리 공간에 설치하고 운영하는 것을 의미한다.

 

7.  AI의 생산성 기여 

 

AI가 근로자의 생산성과 업무 품질을 향상시킨다는 증거가 나타났다. 여러 연구에서 AI가 작업 속도를 높이고 결과물의 질을 개선하는 데 도움을 준다는 결과가 나왔다. 또한 AI가 저숙련 근로자와 고숙련 근로자 간의 격차를 줄이는 데 기여할 수 있다는 점도 확인되었다. 그러나 적절한 관리 없이 AI를 사용할 경우 성과가 저하될 수 있다는 점에 주의해야 한다.


AI가 생산성을 기여한다고 할 때, AI는 주로 생성형 AI를 의미하는 것으로 판단된다. 생성형 AI가 브레인스토밍과 초안 작성에서 생산성을 높이는 것으로 나타났다13). 이에 반해 최종 편집은 인간이 뛰어나다. AI가 잘하는 부분을 입력 데이터와 출력 데이터를 기준으로 접근할 수 있다. 입력량보다 출력량이 적은 경우, 입력랑과 출력량이 같은 경우, 입력량보다 출력량이 많은 경우로 나눌 수 있다. 출력량이 적은 경우는 요약, 감성 판단 등이 되는 데 대부분 그 성능이 탁월하다. 같은 경우는 통번역, 컴퓨터 코드 전환 등이 해당된다. 코드 전환이란 JAVA 코드를 Python 코드로 바꾸는 것과 같은 경우에 해당한다. 이런 경우에도 꽤 쓸만하다. 출력량이 많은 경우란 단순하게 질의하거나, 작문을 요청하거나, 혹은 보고서 초안을 작성을 요청하는 경우 등에 해당하며, 인공지능의 환각이 주로 이 영역에서 문제가 된다14). 이러한 구분은 출력물에 대한 신뢰의 문제와 연결되며, 신뢰란 인간 노동의 대체 정도를 의미한다. 이를 기준으로 LLM 쓰임새를 늘릴 필요가 있다. 참고로 일부 조사에 따르면 글로벌 대기업의 70%이상이 생성형 인공지능을 활용하고 있다고 한다. 예를 들어 citi 그룹은 IT 분야에서 LLM을 활용하여 개발자 생산성을 늘렸으며, Bloomberg는 내부 데이터를 추가 학습시킨 LLM을 활용하고 있다.

 

LLM을 각 기업이 활용하는 경우 자체 LLM을 만들 수 없다. 따라서 이미 존재하는 LLM을 사용해야 하는데, 그런 경우 도입 빛 운용 비용, 보안 등이 문제가 된다. 해당 기업 내부 정보를 추가 학습하게 하는 파인 튜닝 혹은 미세 조정을 하려면 적지 않은 비용이 든다. 대안으로 RAG를 활용할 수 있다. 오픈소스 LLM를 On Premise 형태로 설치하면 보안의 문제가 없다. 최근 RAG를 쉽게 설치할 수 있는 다양한 오픈 소스가 등장했다. 

정리하면 LLM의 성과를 확인하기 위해서 초기에 오픈소스로 접근하는 것은 탁월한 대안이라는 것이다. 이후 Design Thinking의 사고를 접목하여 확대하도록 해야 한다.


8.  AI가 과학 연구와 발견 촉진

 

AI가 과학 발전을 더욱 가속화하고 있다. 2023년에는 AlphaDev와 GNoME 등 과학 연구를 위한 중요한 AI 애플리케이션들이 등장했다. 이는 AI가 단순한 도구를 넘어 과학적 발견의 핵심 동력으로 자리잡고 있음을 보인다.

 

LLM은 단백질 구조를 예측하고 DNA 분석에 획기적인 도약을 가져올 수 있다. 단백질 구조 예측은 의약품의 개발 비용과 기간을 줄일 수 있다. LLM을 이용한 단백질 구조 예측이 기대보다 그 성과가 부족하다는 견해도 있으나, 인공지능을 이용하여 역노화(reverse aging) 단백질 후보군을 줄일 수 있었다. LLM 뿐만 아니라 이미지 생성에 이용되는 stable diffusion 모델을 이용하여 새로운 의약품 탐색 및 개발의 속도를 높이고 있다.

 

우리나라에서도 이에 대한 인식이 충분한 것으로 보인다. 과학기술 연구에서 LLM을 포함한 다양한 접근과 시도가 필요하고, 이의 생태계를 만들기 위한 정부의 적극적 지원 또한 필요하다. 

 

9.  미국에서 AI 관련 규제가 급증


미국에서 AI 관련 규제가 급격히 증가하고 있다. 2016년 단 1개에 불과했던 AI 관련 규제가 2023년에는 25개로 증가했다. 이는 AI 기술의 급속한 발전에 따른 사회적, 윤리적 문제에 대한 인식이 높아지고 있음을 반영한다.


AI 관련 규제가 증가하는 것은 미국만은 아니다. 당장 EU AI 규제법을 생각할 수 있다. 우리나라에서도 EU AI 규제법 등을 참고하여 관련 법률의 제정을 서두르고 있다. 

 

인공지능이 끼치는 영향이 크면 클수록 관련 규제의 필요성 또한 늘어난다. 감시 국가와 감시자본주의에 대한 우려는 AI 규제의 필요성을 늘린다 15) 16) 17).   

 

AI 규제는 미래변화를 고려하여 수립할 필요가 있다. AI이 발전속도가 빠르다. 규제를 포함한 관련 제도는 충분히 의미 있는 미래시점까지 고려하여 법을 제정해야 한다. 이때 단순한 기술 발달뿐만 아니라 인공지능을 포함한 다른 디지털범용기술의 발전까지 고려하여 규제를 포함한 제도를 마련해야 한다. 적어도 인공지능의 미래와 관련된 시나리오를 만들고 다양한 시나리오에 따른 정책 스트레스 테스트를 수행해야 한다.

 

10.  AI 영향력에 대한 인식 향상

 

전 세계적으로 AI의 잠재적 영향에 대한 인식이 높아지고 있으며, 동시에 우려도 증가하고 있다. Ipsos의 조사에 따르면, AI가 향후 3-5년 내에 자신의 삶에 큰 영향을 미칠 것이라고 생각하는 사람의 비율이 60%에서 66%로 증가했다. 또한 AI 제품과 서비스에 대해 불안감을 느끼는 비율도 52%로 전년 대비 13%p 증가했다. 이는 AI 기술의 발전과 함께 사회적 수용성 제고를 위한 노력이 필요함을 시사한다.


인공지능의 영향력이 높아짐에 따라 인공지능 문해력에 대한 요구사항이 늘 것으로 보인다. EU AI 규제법 4조는 인공지능 문해력에 대해 규정했다. 아래 EU AI Act 4조를 번역했다.

 

AI 시스템의 제공자 및 배포자는 직원 및 자신을 대신하여 AI 시스템의 운영 및 사용을 담당하는 다른 사람의 기술 지식, 경험, 교육 및 훈련, AI 시스템이 사용되는 맥락을 고려하고 AI 시스템이 사용될 사람 또는 집단을 고려하여 최대한 충분한 수준의 AI 문해력을 보장하기 위한 조치를 취해야 한다.

 

우리 나라의 경우에도 AI 문해력에 대한 요구가 전반적으로 보장되어야 한다. 다만 다양한 문해력이 요구되고 있는 상황에서 문해력 체계를 정리해야 한다. 기술 문해력의 하위로 디지털 문해력이 있으며, 디지털 문해력의 하나가 인공지능 문해력이다. 이들이 포함관계에 있으나 인공지능 문해력의 비중이 커졌다. 디지털 문해력의 경우는 단순히 디지털 기술을 잘 이용하거나 인터넷에서 필요한 정보를 비판적으로 탐색하는 능력을 넘어서, 경쟁력까지 요구하고 있다. 

 

유럽은 시민을 위한 디지털 경쟁력 프레임워크 2.2 (DigComp 2.2)를 발표했다. 유럽은 시민의 핵심 경쟁력으로 STEM, 복수의 언어, 문해력, 문화적 각성과 표현, 창업가 정신, 시민 경쟁력, 학습역량, 디지털 경쟁력을 들었다18).  디지털 경쟁력은 시민 핵심 경쟁력을 구성하는 한 요소다. 디지털 경쟁력은 정보 및 데이터 문해력, 소통과 협력, 디지털 콘텐츠 장착, 안전, 문제 해결로 구성된다. 인공지능 문해력의 구성요소는 아직 통일된 의견이 없다. 그러나 다양한 의견을 종합하면 인공지능 활용, 인공지능 윤리, 인공지능 개념에 대한 이해 등은 공통된다. 

 

인공지능 발달이 진행됨에 따라 인공지능 문해력과 디지털 경쟁력의 요구와 필요는 늘 것이다. 한국사회에 적합한 인공지능 문해력 등에 대한 프레임워크를 개발할 필요가 있다. 참고로 서울특별시교육청은 학생을 대상으로 디지털·인공지능 문해력을 키우고 주기적으로 점검하려 하고 있다.

 

 마무리


한국사회가 안타깝게도 인공지능 시대와 디지털 시대에 경쟁력이 그리 크지 않은 것으로 보인다. 일본이 산업사회에서 성공했고, 한국이 IT 시대에 상당한 성과를 거두었으나, 디지털 시대로 접어든 이후 차별적 경쟁력을 찾아보기 어렵다. 예를 들어 인공지능, 저궤도위성통신망, 메타버스 등이 그렇다. 

 

한국사회가 놀거나 노력하지 않는다는 뜻은 아니다. 인공지능과 관련된 인당 논문이나 인당 특허 건수는 전세계적으로 상위를 차지하고 있다. 그러나 관련 생태계가 충분히 성숙하지 못한 상태에서 인공지능 역량이 높은 인력은 개인의 부와 명예 혹은 진중한 연구를 위해 해외로 나갈 수 밖에 없다. 

 

한국사회, 즉 정부와 기업이 관련 정책과 전략을 재점검해야 할 이유다. 위에서 10가지 시사점을 실마리로 거칠고 조악한 정책과 전략 의제를 제시했다. 이들 정책과 전략은 시스템적 사고라는 과점을 통해 보다 정련되고 구체화되어야 하며 타당성을 점검해야 한다. 

 

이 글이 그런 고민을 하는 담당자에게 작은 통찰력이라도 줄 수 있기를 기대하고 고대한다.  

----------------------------------------------------------------------------------------------------------------------------------

1) Nestor Maslej, Loredana Fattorini, Raymond Perrault, Vanessa Parli, Anka Reuel, Erik Brynjolfsson, John Etchemendy,  Katrina Ligett, Terah Lyons, James Manyika, Juan Carlos Niebles, Yoav Shoham, Russell Wald, and Jack Clark. 2024. The AI Index 2024 Annual Report. AI Index Steering Committee, Institute for Human-Centered AI, Stanford  University.

2) Newsis. 2024.04.21. 韓 AI 모델 없다던 스탠포드대…네이버에 "수정작업 진행 중" 답변.https://www.newsis.com/view/NISX20240421_0002707454

3)https://hai.stanford.edu/research/ai-index-report

4) Lowell, Kyung. 2024.04.22. [번역 및 요약] HAI: AI 인덱스 리포트 2024. https://www.0xplayer.com/ai-index-report-2024/

5) Lott, Maxim. 2024.03.05. AIs ranked by IQ; AI passes 100 IQ for first time, with release of Claude-3. 2024년 8월 5일 접근.https://www.maximumtruth.org/p/ais-ranked-by-iq-ai-passes-100-iq

6) 대한민국 정책브리핑. 2019.12.17. 인공지능(AI) 국가전략 발표. 2024년 8월 5일 접근. https://www.korea.kr/briefing/pressReleaseView.do?newsId=156366736

7) 대한민국정책브리핑. 2023.09.14. 대한민국 인공지능 도약방안 발표. https://www.korea.kr/briefing/policyBriefingView.do?newsId=156590066

8) Ark Invest. 2023. Big Ideas 2023

9) Shilov, Anton. 2024.02.02. Nvidia's H100 AI GPUs cost up to four times more than AMD's competing MI300X — AMD's chips cost $10 to $15K apiece; Nvidia's H100 has peaked beyond $40,000: Report. 2024년 8월 6일 접근. 

10) The Economist Technology Quarterly. 2020.06. Artificial intelligence and its limits. 

 인공지능의 환각을 Hallucination이라고 한다. 환각의 의미에는 긍정적인 의미가 있어, 일부 보고서는 착각(Confabulation)으로 부를 것을 주장한다. 최근에는 헛소리(Bullshit)으로 부르는 것이 적당하다는 주장이 있다. 환각이나 착각이 인공지능에게 의식이 있다는 오해를 불러 일으키므로 헛소리가 맞다는 것이다. 필자는 인공지능의 헛소리가 새로운 창의성의 실마리가 될 수 있다는 점에 가치를 인정하여 환각(Hallucination)이라 부르겠다.

12) Reis, E. 2011. The lean startup. New York: Crown Business, 27, 2016-2020.

13) Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192.

14) 윤기영. 2023.02.21. 챗GPT의 능력, ‘말하는 상대=사람’의 비판적 사고에 달렸다. 한겨레. 2024년 8월 7일 접근. https://www.hani.co.kr/arti/science/future/1080533.html

15) Slaughter, R. A. 2021. Deleting dystopia: Re-asserting human priorities in the age of surveillance capitalism. University of Southern Queensland.

16) Zuboff, S. 2023. The age of surveillance capitalism. In Social theory re-wired (pp. 203-213). Routledge.

17) Feldstein, S. 2019. The global expansion of AI surveillance (Vol. 17, No. 9). Washington, DC: Carnegie Endowment for International Peace.

18) EC. 2019. Key Competences For Lifelong Learning​ 

<ifsPOST>

 

6
  • 기사입력 2024년08월11일 17시15분
  • 최종수정 2024년08월10일 19시05분

댓글목록

등록된 댓글이 없습니다.