최근 4차산업혁명위원회가 개최한 인공지능(AI) 활용 방안 간담회에서 단연 화두가 된 것은 AI의 편향성 문제였다.
최근 AI 챗봇서비스 '이루다'가 보여준 부적절한 대화 등은 우리 사회에 AI의 학습 편향이 끼칠 악영향을 인지시키는 계기가 됐다.
간담회에 참석한 산학연 전문가들은 직접 규제는 지양돼야 한다고 입을 모았다.
많은 규제 장벽으로 인해 물꼬가 막힌 ICT 산업계의 문제를 AI 분야에서까지 되풀이해서는 안 된다는 우려일 것이다.
구글, IBM 등이 이미 편향성을 줄이기 위한 자체 지표 확보 및 시스템 개발을 진행 중이고, 국내에서 문제가 됐던 '이루다'는 서비스가 종료된 상황이다.
이렇다 보니 사회적 합의와 기업 등의 자발적인 편향 완화 노력이 규제보다 효과적일 것이라는 이들의 주장도 일리가 있다.
하지만 기업은 수익 창출이라는 목적을 향해 달려가는 조직인 만큼, 최소한의 규제는 필요할 것이다.
지난해 말 정부는 이러한 문제 해결을 위해 알고리즘의 투명성 및 공정성 확보, AI 책임 체계 정립 등의 추진 과제 정립과 함께, 자동화된 개인정보 처리에 의한 의사결정의 설명요구권 및 이의제기권을 개인정보보호법에 의무화하겠다고 밝혔다.
신뢰성 확보를 위한 규제 준수 여력이 없는 중소 AI 기업을 위한 정부의 관련 알고리즘 및 도구 개발, 배포 등도 고려돼야 할 것이다.
윤성로 4차위원장은 이날 “인공지능 공정성 제고는 균형감이 중요한데, 인공지능 기술 발전과 혁신을 저해하지 않으면서도, 공정성‧투명성 등 가치를 제고해 궁극적으로 신뢰할 수 있는 인공지능 생태계를 조성해나가는 것이 필요하다”고 말했다.
윤 위원장의 말처럼 신뢰할 수 있는 AI 생태계 초석이 다져지는 한 해가 되길 바래본다.