국가미래연구원에서는 연구진의 논문 및 자료와 함께 연구원 주최 세미나의 주제발표 및 토론내용 등을 PDF 파일로 서비스하고 있습니다.

유럽연합 인공지능법(EU AI Act)의 주요내용 및 시사점 본문듣기

작성시간

  • 기사입력 2024년08월07일 11시45분
  • 최종수정 2024년08월07일 11시45분

메타정보

  • 1

첨부파일

본문

 <주요 내용>

유럽연합(EU)의 인공지능법(AI Act)은 AI 기술의 급속한 발전과 광범위한 적용에 따른 윤리적, 법적, 사회적 영향에 대응하기 위해 마련된 최초의 포괄적인 AI 규제 법안이다. 이 법은 2024년 3월 유럽의회에서 통과된 이후 5월 유럽이사회에서 최종 승인했으며, 6개월에서 36개월 후부터 단계적으로 시행될 예정이다.

 EU AI 법은 AI 시스템을 위험 수준에 따라 분류하는 것이 주요 특징이며, 이 보고서는 AI의 분류의 정의 및 예시와 이에 따르는 의무 사항들을 정리한다. '수용 불가 위험 AI 시스템'은 인간의 존엄성, 자유, 평등, 차별금지, 민주주의 및 법치와 같은 EU의 기본 가치를 위반하는 경우 사용이 전면 금지된다. '고위험 AI 시스템'은 생체인식, 중요 인프라, 교육, 필수 서비스 등 사회적으로 민감한 분야에 사용될 때 높은 수준의 규제를 받게 되며, '제한된 위험성을 갖는 AI 시스템'은 비교적 낮은 위험을 가지고 있지만, 사용자와의 상호작용 과정에서 일정한 투명성이 요구된다. 마지막으로, '저위험 AI 시스템'은 일상적인 상업적 또는 개인적 용도로 사용되며, 비교적 낮은 위험성을 지녀 규제 부담이 최소화된다. 

이 법안은 AI 정책 표준을 설정하고, 기업들의 AI 개발 방식을 변화시키며, 윤리적이고 책임 있는 AI 발전에 영향을 미칠 것으로 예상된다. EU의 규제는 종종 글로벌 표준이 되는 경향이 있어, AI 법이 전 세계 AI 정책에 미칠 영향이 클 것이다. 기업 차원에서는, EU 내에 법인이나 사무소를 두고 있지 않은 기업도 EU에서 AI 시스템이 이용될 경우 이 법 규제사항을 적용을 받게 되며, 공급자뿐만 아니라 배포자, 수입업자, 유통업자에게도 의무가 부과되어 광범위한 기업에 영향을 미칠 것으로 예상되어 면밀한 검토와 대비책이 필요할 것이다.

 

< 결론 및 시사점>

 

►  EU AI 법의 제정은 전 세계적으로 AI 시스템에 대한 법적 규제 강화와 표준화의 시작을 의미하며, 다양한 국가들이 EU의 규제를 참고하여 자국의 AI 규제 정책을 수립할 가능성이 높음

 ◦ EU AI 법은 AI 시스템의 윤리적 사용과 안전성에 대한 글로벌 기준으로 설정되면서, 다른 국가들이 유사한 규제를 도입하거나 EU의 규제를 준수하도록 요구하는 압력으로 작용할 수 있음

 

►  기업 차원에서는 EU AI 법에서 명시하는 수용 불가 AI 시스템이나 고위험 AI 시스템에 대한 규제 사항에 대해 면밀한 검토 및 대비책 마련 필요

 ◦ 특히, EU 내 법인이나 사무소를 두고 있지 않은 기업도 EU에서 AI 시스템이 이용될 경우 법의 적용을 받게 되며, 공급자 뿐만 아니라 배포자 모두에 대한 의무가 존재해 광범위한 기업에 영향을 미칠 것

 ◦ 이를 위해서는 향후 EU 시장 내에 점진적으로 안착되는 과정과 규제의 효과, 분쟁 양상을 면밀하게 추적할 필요가 있음

  * 글로벌 빅테크 기업들은 이미 EU의 디지털서비스법(DSA)과 디지털시장법(DMA) 시행에 대규모 자원을 투입하여 대응책을 마련한 바 있음(Mackrael & Schechner, 2023) 

  * EU는 DMA에 의거 삼성전자와 구글의 협력이 다른 AI 개발사 접근을 차단했는지 검토하겠다는 계획을 밝힌 바 있음 (YTN, 2024.7.2.)

 

►  EU AI 법에서 수용 불가 AI 시스템으로 분류된 경우, 이러한 시스템은 특별한 사정이 없는한 EU 역내 시장에 출시 자체가 금지되며, 고위험 AI 시스템에 대해서는 개발자와 배포자에게 높은 수준의 의무 사항을 규정함

 ◦ 국내 고위험 AI 시스템의 개발자는 AI 시스템의 안전성과 신뢰성을 보장하기 위해 위험관리 시스템, 훈련 데이터의 품질 등 다양한 요건들에 대한 고려가 필요◦ 국내 고위험 위험 AI 시스템의 배포자는 시스템의 안전한 사용을 보장하기 위한 지침을 준수해야 하며, 시스템의 성능과 안전성을 유지하고, 오작동에 대한 대비책 마련 필요 

 

◈ 저자 

▲ 박강민 SPRi AI정책연구실 선임연구원 

▲ 장진철 SPRi AI정책연구실 선임연구원 

▲ 안성원 SPRi AI정책연구실 실장

 

<ifsPOST>

 ※ 이 자료는 소프트웨어정책연구소(SPRi)가 발간한  [ISSUE REPORT IS-176] (2024.8.6.)에 실린 것으로 연구소의 동의를 얻어 게재합니다. <편집자>

 

 

1
  • 기사입력 2024년08월07일 11시45분
  • 최종수정 2024년08월07일 11시40분

댓글목록

등록된 댓글이 없습니다.