UPDATED. 2022-09-25 16:19 (일)
“AI 자율·학습 정도 따른 다원적 윤리기준 필요”
“AI 자율·학습 정도 따른 다원적 윤리기준 필요”
  • 최아름 기자
  • 승인 2021.02.04 14:30
  • 댓글 0
이 기사를 공유합니다

■인공지능 윤리 정책세미나

설명가능성 기술 개발 관건
사업성 없어 정부정책 중요

범용기준 현장 적용 어려워
공급-이용자 합의 담보돼야
최근 서울 더케이호텔에서 열린 ‘사람 중심의 인공지능(AI)을 위한 AI 윤리 정책세미나’가 열렸다.
최근 서울 더케이호텔에서 열린 ‘사람 중심의 인공지능(AI)을 위한 AI 윤리 정책세미나’가 열렸다.

인공지능(AI) 윤리기준의 실효성을 담보하기 위해서는 자율성과 학습 정도에 따른 차별화된 기준 마련이 필요한 것으로 나타났다.

과학기술정보통신부와 정보통신정책연구원은 최근 서울 더케이호텔에서 '사람 중심의 인공지능(AI)을 위한 AI 윤리 정책세미나'를 개최했다.

이번 정책세미나는 최근 AI 챗봇인 ‘이루다’를 둘러싼 논란으로 윤리적 AI 개발·활용에 대한 관심이 높아지는 상황에서, 우리 사회 AI 윤리 정립을 위한 실천방안을 모색하고 각계의 다양한 의견을 폭넓게 수렴하기 위해 마련됐다.

정부는 지난해 12월 AI 국가전략에 따른 사람 중심의 AI 구현을 위해 글로벌 기준과의 정합성을 갖춘 AI 윤리기준을 마련했다.

정부는 특정 분야에 제한되지 않는 범용성과 구속력이 없는 윤리기준 제시, 새롭게 제기되는 AI 윤리이슈를 반영하는 플랫폼으로서의 기능을 활성화하고자 했다.

AI 윤리기준의 3대 기본원칙은 △인간 존엄성 원칙 △사회의 공공선 원칙 △기술의 합목적성 원칙이다.

정부와 함께 AI 윤리기준 마련에 참여한 정보통신정책연구원의 문정욱 지능정보사회정책센터장은 이날 발제를 통해, AI 윤리기준 실천방안으로 개발자, 제공자, 이용자 등 주체별로 실제 현장에서 참고할 수 있는 보다 구체적인 기준이 마련할 방침이라고 밝혔다.

이현규 정보통신기획평가원 AI·데이터 PM은 AI 기술의 신뢰성 확보 방안에 대해 발제했다.

AI 연구 우선순위는 AI 개발로 인한 일자리시장 예측과 산업적 영향, 부정적 요소 발생 시 관리 정책 등을 연구하는 경제적 효과 측면, 산출물에 대한 신뢰성의 문제와 사용자를 다루는 법과 윤리 측면, 기술적 구분으로 구분된다.

이 PM에 따르면, 모든 문제의 근본은 딥러닝이 가지는 투명성 결여에 있다. 개발자조차도 어떻게 이런 결과가 났는지 알 수가 없어 문제가 발생하고 나서 대응하는 상황이 반복될 수밖에 없는 것이다.

이에 대한 해결책으로 나온 것이, 결과값이 왜 나왔는지에 대해 설명할 수 있는 설명가능성 기술이다.

투명성을 확보하고 나면 외부 공격에 안전하고 방어할 수 있는 견고성, 알고리즘이 공정한지 설명할 수 있는 공정성 이슈가 설명되기 때문이다.

연구 필드에서는 설명가능성 확보를 위해 딥러닝 학습 과정에 설명 가능한 기술적 요소를 넣는 방안, 기술자만 이해할 수 있는 근거 알고리즘들을 서술화하기 위한 노력 등이 시도되고 있다. 이러한 접근도 어려울 경우를 위해 과거 사례와 비교해 결과값에 대한 근거를 추론할 수 있는 연구도 추진 중이다.

그는 “AI 연구에서 신뢰성 확보가 사업성이 취약하기 때문에 자본력이 있는 테크자이언트들이 내부적으로 스스로 개발자들의 인성교육이나 개발자들 교육을 통해 실현하는 것이 현실적으로 우선적인 대안”이라고 말했다. 실제로 글로벌 거대기업인 구글, IBM, 마이크로소프트, 페이스북 등에서 활발하게 연구가 진행되고 있는 상황이다.

그러나 일반 중소기업이나 스타트업의 경우 시간과 비용의 한계로 신뢰성 확보를 위한 노력은 거의 전무할 수밖에 없다. 이루다 사태의 반복이 예견되는 상황이다.

이 PM는 “국내 역시 충분한 힘을 가진 네이버, 삼성전자 등 국내 테크자이언트들이 노력해주면 좋겠지만, 현 상황에서 정부의 노력이 매우 중요할 것”이라고 조언했다.

이를 위해 정부는 테스트 도구를 만들어 기업들이 이를 활용해 신뢰성을 테스트하는 형태를 연구 중인 것으로 나타났다.

이어진 패널토의에서 이수영 KAIST 교수는 “AI보다는 개발자나 활용자의 윤리를 더 고려할 필요가 있다“며 ”일정 수준 이상의 AI 사용하는 사람에게는 교육과 면허를 의무화해야 한다“고 주장했다.

어린이 수준의 판단 능력을 가진 AI에게 윤리 책임을 물을 수 없다는 것.

그는 ”정부, 개발자, 소비자가 윤리기준에 합의해야 하는 것에는 이견이 없지만, 원론적 수준이 아닌 구체적 하위 단계에서는 원칙 간 충돌을 피할 수 없을 것“이라고 말했다.

그는 이러한 문제의 해결을 위해 AI의 자율성과 학습성 정도에 따라 단계별로 다른 가이드라인을 적용해야 실용성을 보장할 수 있을 것이라고 주장했다.

신민수 한양대 교수(녹색소비자연대 공동대표) 역시 일률적인 기준 적용의 위험성을 지적했다. 신 교수는 ”모든 구성원이 참조할 수 있는 일반원칙 마련은 바람직하지만, 그러한 범용성이 실제 존재할 수 있는지 고민“이라고 말했다.

실제 현장에서 산업의 규모나 적용 수준이 천차만별이기 때문에, 윤리원칙이 효율적 자원 활용을 방해할 수 있다는 것.

그는 전세계적으로 이미 마련된 84개 AI 윤리 가이드라인 역시 표현이나 개념 해석의 차이로 인해 권고사항이 천차만별이라며 실효성 담보를 목적으로 다원적인 지표와 평가 방법을 어떻게 마련할지 고민해야 한다고 말했다.

신민수 교수는 공급자-이용자 간 계약을 통해 사용범위, 강도가 정해지는 것이 적합할 것이라고 덧붙였다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • [인터넷 신문 등록 사항] 명칭 : ㈜한국정보통신신문사
  • 등록번호 : 서울 아04447
  • 등록일자 : 2017-04-06
  • 제호 : 정보통신신문
  • 대표이사·발행인 : 문창수
  • 편집인 : 이민규
  • 편집국장 : 박남수
  • 서울특별시 용산구 한강대로 308 (한국정보통신공사협회) 정보통신신문사
  • 발행일자 : 2022-09-25
  • 대표전화 : 02-597-8140
  • 팩스 : 02-597-8223
  • 청소년보호책임자 : 이민규
  • 사업자등록번호 : 214-86-71864
  • 통신판매업등록번호 : 제 2019-서울용산-0472호
  • 정보통신신문의 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재·복사·배포 등을 금합니다.
  • Copyright © 2011-2022 정보통신신문. All rights reserved. mail to webmaster@koit.co.kr
인터넷신문위원회 abc협회 인증 ND소프트