UPDATED. 2024-04-26 19:26 (금)
[ICT광장] AI 신뢰성 전문가 양성, 더는 미룰 수 없는 이유
[ICT광장] AI 신뢰성 전문가 양성, 더는 미룰 수 없는 이유
  • 최아름 기자
  • 승인 2023.06.06 19:24
  • 댓글 0
이 기사를 공유합니다

박지환 씽크포비엘 대표
박지환 씽크포비엘 대표이사.
박지환 씽크포비엘 대표이사.

지난 5월 22일, 한 트위터 계정에 미 국방성 청사 내부에서 큰 폭발이 발생했다는 소식이 현장 사진과 함께 올라왔다. 911 테러의 트라우마가 아직도 생생한 미국 사회는 SNS를 중심으로 크게 동요했고, 인도와 러시아, 우크라이나 등 해외 언론에서도 해당 소식을 중요하게 다뤘다. 테러 위험에 민감하게 반응한 투자자들의 패닉 셀링으로 S&P500 지수가 순식간에 0.3% 하락하기도 했다.

하지만 해당 뉴스와 사진은 AI로 만들어낸 가짜임이 밝혀졌다. 솥뚜껑을 보고 놀란 사람들은 그나마 가슴을 쓸어내렸겠지만, AI가 조작한 가짜 사진 한 장에 한순간이나마 전 세계의 여론과 주가를 뒤흔들 수 있었다는 사실은 달라지지 않는다.

‘여론의 피드백 루프’ 현상이 있다. 사람들이 무심결에 다수 의견에 동조하는 경향으로, 한 번 여론이 형성되면 여론이 다시 더 큰 여론을 만들고, 그 여론에 동조하는 사람들이 자석 앞의 쇳가루처럼 순식간에 모여들면서 그 규모와 파급력이 걷잡을 수 없게 증폭된다는 뜻이다. 특히 SNS가 전 세계 단위로 활성화된 현대사회에서, 매체가 보도한 특정 사안이 일정 이상의 주목을 받는 순간, 여론의 쏠림 현상은 일종의 집단 광기처럼, 돌림병처럼, 영화 속 좀비가 퍼져나가듯 담론장 전체를 휩쓸어 버릴 수 있다.

설령 잘못된 사실관계에 기초한 여론이라도, 일단 궤도에 오른 피드백 루프는 검증 속도보다 훨씬 빨리 전파되고 모든 것을 ‘오염’시킨다.

여기에 AI의 권능이 개입하면 상황은 한층 더 심각해진다. 현재의 AI 기술은 상상을 초월하는 속도와 규모로 텍스트나 화상, 동영상 등을 조작‧유포‧확산시킬 수 있다. 한두 개인의 장난기나 악의로 AI를 이용해 만들어낸 가짜뉴스에도 SNS 여론은 종종 크게 요동친다. 그런데 여기에 특정 의도를 지닌 집단이 조직적으로, 제대로 자본을 투입해서 기술을 활용한다면?

조만간 다수의 국가는 중요한 선거를 앞두고 있다.

이전 선거들이 SNS 선거전이었다면, 이제는 AI 선거전이 대세가 될 것이다. 그것은 사전에 작성한 메시지를 불특정 다수에게 반복적으로 전송하는 기존의 ‘봇’ 방식과는 차원이 다르다. 개별 사용자들의 정치적 성향을 치밀하게 분석해 개인별 최적화된 정보들을 정교하게 생성, 전달할 수 있다. 설사 치명적인 거짓 정보가 있다 해도, 일단 일정 규모 이상으로 여론이 형성되면 피드백 루프에 의해 폭발적으로 증폭돼 돌이킬 수 없게 된다.

게다가 선거전은 시간 싸움이기 때문에, 유언비어의 폭발력을 진실의 검증이 따라잡는 건 불가능에 가깝다. 모든 게 밝혀졌을 즈음 이미 선거는 끝나 있고, 잘못된 믿음은 편중된 여론에 기반한 선거 결과를 통해 다시금 스스로 정당화할 것이기 때문이다.

물론 AI의 조작, 유포 기술이 아무리 정교하고 광범위하다 해도 진실은 언젠가 밝혀진다. 기상천외한 수를 쓰더라도 도둑은 대부분 잡히게 마련이다.

그러나 도둑을 잡는다고 도둑맞은 물건을 반드시 되찾는다는 보장이 없듯, 진실이 밝혀지기까지 허비된 사회적 비용은 복구되지 않는다. 특히 선거나 개인의 명예 실추 같은 사안에서 그 피해는 치명적이다. 예방책이 필요하고, 만에 하나 예방이 안 됐을 경우 최대한 빨리 상황을 개선할 수 있어야 한다.

그러려면 전문인력과 시스템이 필요하다. AI 기술로 인한 피해를 예방 내지 최소화하려면, 이 또한 AI 기술의 위험성과 신뢰성 문제에 최적화된 전문가가 필요하다.

“열 사람이 지켜도 한 도둑 막기 어렵다”라는 말은 어차피 어려우니까 도둑 잡길 포기하자는 의미가 아니다. AI를 이용한 범죄나 여론 조작, 부정행위는 한 명 범죄자의 악의와 재능으로도 가능하지만, 그것을 막으려면 열 명의 전문가가 필요할 수 있다. 도둑은 비전문가이더라도, 경찰은 철저히 훈련된 전문가여야 하는 것과 같은 이치다. AI 신뢰성 관련 검증 기술의 개발과 전문인력의 양성이 무엇보다 시급한 이유가 여기에 있다. 필자가 AI의 치명적 오작동과 악용 범죄 등에 대처하기 위한 전문인력 양성의 필요성을 3년째 주장했지만, 여전히 시작조차 못 한 실정이다. 소가 그나마 멀쩡히 있을 때 외양간을 고쳐야 하듯, AI 관련 업계가 당장 이익에만 골몰하는 사이, AI 범죄의 위험성은 이미 우리 문 앞까지 다가와 있다.


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • [인터넷 신문 등록 사항] 명칭 : ㈜한국정보통신신문사
  • 등록번호 : 서울 아04447
  • 등록일자 : 2017-04-06
  • 제호 : 정보통신신문
  • 대표이사·발행인 : 함정기
  • 편집인 : 이민규
  • 편집국장 : 박남수
  • 서울특별시 용산구 한강대로 308 (한국정보통신공사협회) 정보통신신문사
  • 발행일자 : 2024-04-26
  • 대표전화 : 02-597-8140
  • 팩스 : 02-597-8223
  • 청소년보호책임자 : 이민규
  • 사업자등록번호 : 214-86-71864
  • 통신판매업등록번호 : 제 2019-서울용산-0472호
  • 정보통신신문의 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재·복사·배포 등을 금합니다.
  • Copyright © 2011-2024 정보통신신문. All rights reserved. mail to webmaster@koit.co.kr
한국인터넷신문협회 인터넷신문위원회 abc협회 인증 ND소프트