UPDATED. 2024-04-24 10:48 (수)
인공지능 위협, 정부 정책 재정립 필요
인공지능 위협, 정부 정책 재정립 필요
  • 김연균 기자
  • 승인 2018.01.10 09:08
  • 댓글 0
이 기사를 공유합니다

산업진흥·경제성만 고려 ‘위험’

윤리 및 기술 표준 마련 시급

인공지능(AI) 위험성에 대한 우려를 잠재울 수 있는 통합적 위험정책 연구가 필요하다는 지적이 일고 있다. 특히 정부 정책기능 재정립을 통해 사전 예방적 대책이 필요하다는 주장이다.

국회 입법조사처는 최근 ‘인공지능 위험정책 필요성에 대한 실증적 고찰’ 보고서를 통해 인공지능이 가지고 올 수 있는 위험에 따른 구체적 사전적 대비 및 사후적 대응방안과 관련된 연구는 거의 없다며, 기술 발전에 뒤처지는 제도 지체로 인해 적시에 대응하고 있지 못하고 있는 상황이라고 밝혔다.

특히 보고서는 “과학기술정보통신부, 4차산업혁명위원회 등 조직이 개편됐지만 급속도로 성장하고 있는 고지능 과학기술의 발전과 더불어 향후 인공지능이 가져올 부정적인 영향에 대비한 사회 윤리, 규범, 법제도, 거버넌스 변화 및 위험성 평가의 프레임 워크 개발이 시급하다고 할 수 있다”며 인공지능 기술의 위험에 대비하는 통합적 거버넌스 구축을 주문했다.

AI위험 사전예방원칙 관점에서 새로운 대안 및 정책 도입을 고려할 때 평가기준의 중요도는 시행가능성, 사회적 수용성, 효과성, 효율성 순으로 전제하고, 정책평가에서 강조되는 효율성이나 효과성보다 시행가능성이나 사회적 수용성이 높게 나타남에 따라, AI 기술위험의 경우 경제적 관점보다 오히려 실제 정책 도입 가능성 여부 및 사회적 공감대 형성 여부가 더 중요하다고 강조했다.

이에 대해 현재 정부는 AI 기술 등 소위 4차 산업의 핵심기술에 대해 산업진흥과 같은 경제적 측면에 편향되어 접근함에 따라 인공지능 기술로 인하여 발생할 수 있는 위험이나 부정적 효과에 어떻게 대응하고 관리해야 할지에 대한 범정부차원의 정책방향 부재 및 통합적인 위험관리체계에 대한 준비가 부족하다고 지적했다.

또한 보고서는 “인공지능 위험의 대비하기 위해 위험의 책임소재, 위험 입증, 위험 평가 등이 조속히 마련돼야 하며, 동시에 관리 주체로서 제조업, 개발사(자), 비영리기관 등과 더불어 정부의 역할이 중요하다”며 “인공지능 기술의 특성 및 지식의 전문성으로 인해 사전 모니터링이나 위험감지가 어렵다는 점을 고려할 때, 인공지능 설계 과정에서의 윤리기준 및 인공지능 기술 표준 등 정부 차원의 구체적인 기준이 요구된다”고 강조했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • [인터넷 신문 등록 사항] 명칭 : ㈜한국정보통신신문사
  • 등록번호 : 서울 아04447
  • 등록일자 : 2017-04-06
  • 제호 : 정보통신신문
  • 대표이사·발행인 : 함정기
  • 편집인 : 이민규
  • 편집국장 : 박남수
  • 서울특별시 용산구 한강대로 308 (한국정보통신공사협회) 정보통신신문사
  • 발행일자 : 2024-04-24
  • 대표전화 : 02-597-8140
  • 팩스 : 02-597-8223
  • 청소년보호책임자 : 이민규
  • 사업자등록번호 : 214-86-71864
  • 통신판매업등록번호 : 제 2019-서울용산-0472호
  • 정보통신신문의 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재·복사·배포 등을 금합니다.
  • Copyright © 2011-2024 정보통신신문. All rights reserved. mail to webmaster@koit.co.kr
한국인터넷신문협회 인터넷신문위원회 abc협회 인증 ND소프트