국가미래연구원에서는 연구진의 논문 및 자료와 함께 연구원 주최 세미나의 주제발표 및 토론내용 등을 PDF 파일로 서비스하고 있습니다.

책임 있는 AI를 위한 기업의 노력과 시사점(Corporate Efforts for Responsible AI and Implications) 본문듣기

작성시간

  • 기사입력 2024년08월09일 13시00분
  • 최종수정 2024년08월09일 13시00분

메타정보

  • 2

첨부파일

본문

<요약>

 

최근 전 산업과 일상에서 AI의 활용이 폭넓게 이뤄지고 있으나, 한편으로는 AI 위험에 대한 우려 및 AI로 인한 사건 수가 증가하면서 AI 위험 대응 요구도 확대되고 있다. 이에 따라 각국 정부와 학계, 업계 등 이해당사자가 AI의 위험을 방지하고 안전하고 신뢰할 수 있는 AI를 개발 및 도입하기 위해 노력하고 있다. 

 

본 보고서에서는 액센츄어와 스탠퍼드대학교가 실시한 글로벌 기업의 책임 있는 AI에 대한 조치 인식 조사를 인용하여 책임 있는 AI 영역별 대응 수준을 진단하고, 주요 기업별 전담 조직 및 AI 안전 프레임워크 현황 사례를 조사하여 기업의 구체적인 책임 있는 AI에 관한 노력에 대해 살펴보았다.

 

 액센츄어와 스탠퍼드 대학교의 조사 결과, 기업은 개인정보 보호 및 데이터 거버넌스, 신뢰성 및 보안, 투명성 및 설명 가능성, 공정성 등 책임 있는 AI의 요인별 대응을 추진하고 있으며, 개인정보 보호 및 데이터 거버넌스 측면의 대응 수준이 가장 높게 진단되었다. 그러나, AI 모델 발전에 따른 결과 설명의 어려움, 국가별 공정성의 기준에 대한 차이 등의 사유로 투명성 및 설명 가능성, 공정성 부문에 대한 향후 조치를 향상시킬 필요가 있다. 

 

국내외 기업별 사례 조사 결과, 주요 기업들은 AI 모델의 평가와 개발·배포 여부에 대한 의사결정을 할 수 있는 전담 조직을 설립하고, 전담 조직에 의해 AI의 위험성을 정의하고 평가하는 체계를 구축하고 있다. 국내 기업은 계열사 간 컨센서스를 위한 협의체를 운영하는 특징이 있으며, 산업으로의 AI 적용을 위한 과제별 위험 요인을 분류하고 평가하는 체계를 도입하고 있다. 글로벌 조사와 유사하게, 공정성 부문은 제도적인 가이드라인 수준으로 기업의 실질적인 조치가 미흡한 상황으로 향후 개선이 필요하다.

 

 본 보고서의 결과는 각국 정부가 AI 규제에 관한 논의와 실행을 본격화되는 가운데, 기업들이 전담 조직을 구축하고, AI 안전 프레임워크를 수립 및 준수함으로써 책임 있는 AI를 정착시키기 위해 노력하고 있음을 보여준다. 앞으로 국내외 기업들의 안전하고 책임 있는 AI 개발 및 사용을 위한 지속적인 노력이 요구된다.

 

< 시사점>

 

■ 액센츄어와 스탠퍼드HAI의 글로벌조사 결과에 따르면, 공정성을 비롯하여 투명성 및 설명가능성에 대한 기업의 인식과 조치가 향상될 필요


 - 유럽(95%), 북미(96%), 아시아(92%)의 기업은 자사 AI 도입 전략에 책임 있는 AI의 요인, 즉 공정성, 투명성 및 설명 가능성, 개인정보 및 데이터 거버넌스, 신뢰성 및 보안 등을 하나 이상 고려하고 있음

  ∙ 동의 없는 데이터 사용이나 데이터 유출과 같은 개인정보 보호 및 데이터 거버넌스의 조치 비율이 높으나, 투명성과 공정성 관련 조치 비율은 낮음

  ∙ 아시아에서는 보안 조치 비율이 높았으나 투명성은 낮은 비율을 보이며, 유럽은 투명성, 공정성, 개인정보보호 및 데이터 거버넌스 조치는 높으나 보안은 상대적으로 낮은 조치를 보이면서 지역별 편차를 나타냄

 - AI 모델이 고도화되며 복잡한 모델은 우수한 성능을 제공할 수 있으나 단순한 모델보다 해석하기 어려운 경향이 있어 모델의 복잡성과 설명 가능성 사이의 적절한 절충이 필요함

 - 현재 공정성은 일관되고 구조화된 접근 방식이 타 지표 대비 부족하며, 공정성을 정의, 측정, 보장하는 일은 복잡하기에 이에 대한 합의가 향후 필요함

 

■ 기업내 전담조직 신설 및 원칙 수립과 함께, 전담조직의 권한과 역할 및 목표를 분명히 하여 책임 있는 AI 프로세스를 정착시키고 실행하는 노력 중요


 - 기업의 AI 윤리 및 공정성 실현 시 주요 장애요인으로 `혁신 제품 개발 목표가 AI 윤리 의지보다 우선시 되는 기업 문화`, `AI 윤리가 기업의 성과 지표로 정량화하기 어려운 점`, `기업 내 전담 조직의 권한 부족과 잦은 조직개편`이 주로 언급됨 (Ali et al, 2023)28

 - 이에, 기업 구성원에 대한 AI 안전 및 윤리 교육, 기업 경영진의 인식 개선이 선행됨으로써 기업 내 책임 있는 AI 문화가 내재될 필요가 있음

 

■ 정부의 AI 안전관련 제도 마련 및 AI안전연구소 설립과 더불어 기업의 자체적인 노력으로 민관협력을 통한 책임있는 AI정착을 위한 문화 확산이 필요


 - 최근 유럽연합의 인공지능법, 미국 백악관의 행정명령을 비롯한 위험성이 높은 AI에 대한 각국의 규제 조치가 진행되는 만큼, 기업과 국가의 고위험 AI의 안전 조치를 확보하는 프로세스가 조속히 정착되어야 함

 - 현재 대기업은 자체적인 전담 조직을 구성하여 책임 있는 AI 프레임워크 수립 및 실행을 통한 자율 규제에 노력하고 있으며, 향후 국가 차원에서는 중소·스타트업 및 수요기업 등 전체 AI 산업 가치사슬로의 책임 있는 AI 확산이 필요함

  ∙ 특히, 제도와 함께 기술적 대응이 본격적으로 이뤄지는 해외 기업 대비, 국내 기업은 AI 윤리가이드라인을 제시하는 수준인 상황으로, 향후 국내 기업도 기술적·제도적 조치 모두 병행하여 추진할 필요가 있음

 - 본 보고서의 결과에 따르면 주요 기업별 AI 안전 프레임워크에 차이가 있으며, 이에 국가 및 기업 단위의 글로벌 협력을 통해 AI 윤리 및 안전에 대한 프레임워크의 표준화가 필요함

  ∙ 현재 한국에서는 개인정보보호위원회의 `인공지능(AI) 개발·서비스를 위한 공개된 개인정보처리 안내서`, 한국정보통신기술협회(TTA)의 `신뢰할 수 있는 인공지능 개발 안내서` 등 관련한 가이드라인이 논의되고 있음

 - 향후 책임 있는 AI 실현을 위해 국내 AI 개발기업, 도입 기업 현황, 조직 내 AI 안전 제도 마련, 실행 여부 등에 대한 지속적인 실태 파악이 필요함

 

<ifsPOST>

 ※ 이 자료는 소프트웨어정책연구소(SPRi)가 발간한 [ISSUE REPORT IS-177](2024.8.7.)dp 실린 것으로 연구소의 동의를 얻어 게재합니다. <편집자>​

 

 

 

 

2
  • 기사입력 2024년08월09일 13시00분
  • 최종수정 2024년08월09일 12시32분

댓글목록

등록된 댓글이 없습니다.