중소·벤처 개발사 지원에 초점
‘고위험’ 설정…활용 전 고지
편향성 진단·제거 기술 개발도
[정보통신신문=최아름기자]
인공지능 신뢰성 관련 제도・윤리・기술적 요구사항을 단권화한 개발 가이드북이 제작·배포되고, 이를 검증·인증할 수 있는 원스톱 지원체계가 정부에 의해 구축된다.
과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 이러한 내용의 ‘신뢰할 수 있는 인공지능 실현전략’을 발표했다.
과기정통부에 따르면 인공지능 신뢰성은 ‘인공지능이 내포한 위험과 기술적 한계를 해결하고, 활용・확산 과정에서의 위험・부작용을 방지하기 위한 가치 기준’이다.
김경만 과기정통부 인공지능기반정책과장은 11일 이와 관련한 기자스터디 자리에서 “지난해 말 발표한 ‘인공지능 윤리기준’이 추상적이라, 구체적이고 쉽게 이해할 수 있는 실현 방안 마련이 요구됐다”고 말했다.
특히 이번 전략은 인공지능 신뢰성 확보와 관련한 시장의 요구사항을 제품에 반영할 역량이 있는 대기업이 아닌, 중소벤처기업 지원에 초점을 두고 마련된 것으로 나타났다.
최근 ‘이루다 사태’에서 볼 수 있듯, 인공지능 기술 역량이 있는 중소벤처기업들은 신뢰성의 충족을 위한 요구사항을 아예 모르거나, 알더라도 시간·비용 한계로 인해 반영하기 어렵기 때문이다.
실현전략에 따르면, 정부는 지금까지 정립된 국내・외 신뢰성 관련 법・제도・윤리・기술적 요구사항을 한 데 모아 단권화한 ‘개발 가이드북’을 제작・보급할 계획이다.
가이드북을 통해 개발 단계에서 신뢰성을 준수했는지, 어떤 기준을 만족해야 준수한 것인지 등 요구사항을 한 번에 확인할 수 있게 되면 중소벤처기업의 개발 시 신뢰성 확보 부담이 크게 덜어질 것으로 보인다.
인공지능이 이러한 가이드북의 내용을 준수했는지 여부 및 수준을 확인하고 평가할 수 있는 검증절차・항목・방법 등의 ‘검증체계’도 마련, 제시된다.
또한 인공지능스피커 등 몇몇 부분의 인증 경험을 참고해 민간협회가 자율적으로 인증시스템을 도입하도록 지원할 방침이다.
김경만 과장은 “이러한 시스템을 활용하면 중소업체들도 큰 부담 없이 인공지능 신뢰성을 확보할 수 있을 것”이라고 밝혔다.
이와 함께 정부는 인공지능 신뢰성 원천기술 개발도 추진한다.
이미 구현된 시스템에 인공지능이 판단기준 등을 설명할 수 있는 기능을 추가할 수 있고, 인공지능이 스스로 법・제도・윤리적 편향성을 진단하고 효율적으로 제거할 수 있는 기술 개발에 직접 나서는 것.
더불어 국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 인공지능의 범주를 설정하고, 서비스 제공 전에 해당 인공지능의 활용 여부를 이용자에게 고지하도록 할 계획이다.
최근 유럽연합은 고위험 인공지능 사례로 △생체인식시스템 △공공장소에서의 불특정 다수 안면인식 △수도·가스 등 주요 기반시설 △근로자 평가·채용 등을 제시한 바 있다.
한편, 이날 4차위 회의에서는 사업자등록번호를 공공데이터 개방 시 포함하도록 하는 안건이 함께 심의·의결됐다.
정부는 앞으로 사업자등록번호를 기업데이터와 연계, 개방함으로써 정책, 연구, 비즈니스 등 다양한 용도로 활용이 수월해지며 기업데이터의 투명한 공개로 좋은 기업들이 더 영업을 잘 할 수 있는 선순환 생태계를 조성할 수 있을 것이라고 밝혔다.