UPDATED. 2021-01-20 15:26 (수)
인공지능이 결정하는 시대, 'AI 윤리기준' 필요성 대두
인공지능이 결정하는 시대, 'AI 윤리기준' 필요성 대두
  • 차종환 기자
  • 승인 2020.11.30 14:55
  • 댓글 0
이 기사를 공유합니다

AI 도출 결과에 불완전성 제기
결정 과정 설명할 수 있어야

각국 법∙정책 과제 마련 분주
AI 투명성∙책임 범위 명확화
AI의 결정이 어떠한 과정을 거쳐 나온 것인가 설명할 수 있는 ‘설명가능한 AI’의 필요성이 제기되고 있다. [사진=클립아트 코리아]
AI의 결정이 어떠한 과정을 거쳐 나온 것인가 설명할 수 있는 ‘설명가능한 AI’의 필요성이 제기되고 있다. [사진=클립아트 코리아]

인공지능(AI)의 발전이 눈부신 속도로 이뤄지면서 ‘AI 윤리기준’을 정립해야 한다는 목소리가 커지고 있다.

AI는 데이터를 분석해 예측∙추천∙분류하는 방식으로 결과를 도출하는데, 현재 이 결과물을 의사결정에 적극 반영하는 산업계가 많아지기 시작했다.

문제는 이러한 의사결정에도 AI가 인간이 내리는 결정 못지 않게 차별적이고 배제적인 결과를 내곤 하면서, 사회혼란을 가중시킬 수 있는 가능성이 제기되고 있다.

인간이 내린 의사결정은 그 책임주체가 명확하지만 AI는 그렇지 못하다는 점에서 이른바 ‘설명가능한 AI(XAI: Explainable AI)’의 필요성이 높아지고 있다는 분석이다.

XAI란, AI가 내린 결정이 어떠한 과정을 거쳐 나온 것인지 설명될 수 있어야 한다는 개념이다. 이를 통해 결정에 대한 책임소재를 분명히 하고, AI에 대한 사용자의 불신을 해소할 수 있다.

XAI에 대한 연구는 크게, 설명가능한 모델 구축과 설명 인터페이스 구축으로 나뉘어 진행되고 있다.

미국 고등연구계획국이 연구를 주도하고 있으며, 우리나라에도 XAI 연구센터가 설립돼 딥러닝 모델 내부를 분석하고 설명하는 ‘E-GBAS’ 원천기술을 개발하는 등 성과를 내고 있다.

정책적으로는 영국이 지난5월 AI 시스템을 통해 개인정보를 처리하는 경우 해당 개인에게 AI에 의한 결정을 설명하는 사례 및 방법을 제시하는 지침을 마련했고, 미국 국립표준기술연구소(NIST)가 지난 8월 ‘AI 기반 의사결정을 설명하기 위한 4대 원칙’ 초안을 발표했다.

우리 정부는 지난해 12월 발표한 AI 국가전략에 따라 글로벌 기준과 정합성을 갖춘 범국가 AI 윤리기준을 마련하는 중이다.

한국정보화진흥원(NIA)은 최근 관련 보고서를 통해 AI 설명가능성 확보를 위한 법∙정책적 과제를 제시했다.

우선, AI 투명성 관련 권리를 명확히 해야 한다는 지적이다.

투명성과 관련된 권리, AI 결정에 대한 이의제기권, 적용거부권을 어디까지 어떤 방식으로 인정할 것인지 결정할 필요가 있다.

아울러 기업의 영업비밀을 보호하면서 AI의 투명성을 확보할 수 있도록 설명가능성에 대한 합리적 범위 설정이 필요하다는 설명이다.

AI 결정에 대한 책임 범위도 명확히 해야 한다.

현행법상 AI의 권리 능력은 인정되지 않아, AI의 자율적 판단에 의해 계약이 체결되는 경우 계약 책임을 귀속시킬 수 있는 근거가 부재한 상황이다.

피해자에게 충분한 보상이 되도록 AI 위험수준을 유형화한 보험제도 도입 등 손해보상방안 마련과 AI 관련 사업자의 책임 범위를 명확히 해야 할 것으로 보인다.

또한 AI 모델의 불완전성을 이해하고, 최대한 차별적 요소를 배제하기 위한 다양한 기술적 조치∙담당자 교육 방법 등을 포함한 지침이 마련돼야 한다는 지적이다.

국내외 연구된 안전성 관련 표준을 바탕으로 AI 안전성 인증제도 도입의 필요성과 인증체계∙방식 등에 대한 선행 법제 연구도 필요하다.

아울러 AI 시스템을 지속적으로 추적 평가할 수 있도록 기업이 자율적으로 AI 시스템에 대한 영향 평가를 수행할 수 있도록 하는 방안이 마련돼야 한다는 설명이다.

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.