UPDATED. 2024-04-19 17:36 (금)
딥페이크, 위조 영상과의 전쟁이 시작됐다
딥페이크, 위조 영상과의 전쟁이 시작됐다
  • 차종환 기자
  • 승인 2020.05.11 09:38
  • 댓글 0
이 기사를 공유합니다

특정인을 영상 속 인물과 합성
AI가 정교하게 다듬어 실재감↑

연예인 얼굴 합성한 포르노
정치인 출연한 가짜뉴스 범람

각국 판별기술 연구개발 활발
음란물 처벌 ‘딥페이크법’ 통과
트럼프 대통령의 얼굴을 합성한 딥페이크 영상. 정치적 발언이 얼마든지 조작될 수 있음을 보여준다. [사진=Derpfakes]
딥페이크는 영화 아이언맨의 주인공을 톰크루즈로 바꿀 수 있다. [사진=유튜브]

영상 홍수 시대다.

급격히 발전된 ICT 인프라를 바탕으로, 문자나 사진이 아닌 영상으로 정보를 전달하는 것이 자연스러운 세상이 됐다.

영상이 지니고 있는 정보 전달력은 그 무엇보다 강력하다. 하지만 그것이 거짓이라면 얘기가 달라진다.

나는 찍은 적이 없는데 내가 버젓이 등장하는 영상이 인터넷을 돌아다닌다면? 쏟아지는 영상 속에서 이미 당신은 딥페이크의 표적이 돼 있을지도 모를 일이다.

 

정교한 합성, 인공지능이 한몫

딥페이크는 인공지능(AI)을 구현하는 기술 중 하나인 딥러닝(Deep Learning)과 가짜라는 뜻인 페이크(fake)가 합쳐진 말이다. 특정인의 얼굴을 다른 영상 속 인물과 합성해 마치 그가 해당 영상에 등장하는 것처럼 보이게 하는 기술을 일컫는다.

영상이 보통 초당 24개의 프레임이 연속적으로 보여지는 것이라고 정의한다면, 굳이 딥페이크 기술을 쓰지 않더라도 각각의 프레임 속 인물을 다른 얼굴로 합성해 연속으로 재생하면 동일한 효과를 얻을 수 있다.

그런데 초당 24개의 사진을 수작업으로 일일이 다른 얼굴로, 그것도 어색하지 않게 합성하기란 결코 쉬운 일이 아니다. 5분짜리 영상이라면 7200장의 사진을 작업해야 된다는 계산이 나온다. 사실상 불가능에 가까운 일이다.

딥페이크는 이 과정을 AI로 자동화, 간소화한다.

‘생성적 적대 신경망(GAN)’이라는 기술이 핵심이다. 2014년 구글 브레인의 이안 굿펠로우(Ian Goodfellow)라는 연구원이 처음 제안한 이 기술은 진짜 같은 가짜를 쉽고 빠르게 만들 수 있는 방법으로 각광받고 있다.

GAN은 두 신경망 모델이 경쟁한다. 실제 데이터를 학습하고 이를 바탕으로 거짓 데이터를 생성하는 ‘생성자(Generator)’와 이를 실제인지 거짓인지 판별하는 ‘감별자(Discriminator)’가 그것이다. 이들이 생성과 감별의 과정을 반복하면서 데이터를 스스로 재구성, 영상을 실제와 가깝게 바꿔 나가게 된다.

데이터가 많으면 많을수록, 학습이 여러 번 이뤄질수록 가짜와 구분할 수 없는 ‘진짜’ 같은 딥페이크 영상을 만들 수 있다.

GAN 기술은 오픈소스로 공개되는 추세다. 일반인들도 손쉽게 합성 영상을 만들 수 있게 된다는 의미다.

AI 기반의 합성 기술은 영상뿐만 아니라 음성에도 유효하다.

다양한 사람의 발화 스타일을 직접 학습함으로써 감정 표현이 가능함은 물론, 실제 사람의 음성 녹음 데이터가 있다면 그 사람의 음성과 흡사한 음성도 구현이 가능한 수준에 도달했다.

네이버는 약 4시간 정도 음성 녹음 데이터가 있으면 그 사람의 음성과 흡사한 음성 합성이 가능하다고 밝힌 바 있다.

 

포르노∙가짜뉴스에 악용

딥페이크는 AI가 학습할 데이터가 많으면 많을수록 정교해지기 때문에 미디어 노출이 잦은 연예인, 정치인 등을 대상으로 하는 경우가 많다.

특히, 연예인을 포르노에 합성하는 딥페이크 영상이 판을 치고 있어 심각한 사회 문제로 대두되고 있다.

네덜란드 보안업체 딥트레이스(Deeptrace)에 따르면, 전세계 딥페이크 영상은 1만5000여개에 달하는데 이 중 포르노 영상은 96%를 차지한다. 합성 대상자는 세계 각지의 유명 여자 연예인이다.

요즘처럼 소셜미디어(SNS)가 발달한 시대엔 일반인도 딥페이크의 피해로부터 자유로울 수 없다. SNS에 올렸던 다수의 사진이 딥페이크 생성을 위한 데이터로 사용될 수 있기 때문이다.

미디어 노출이 잦은 연예인은 오히려 딥페이크 영상이 가짜라는 사실을 쉽게 알아차릴 수 있지만 일반인의 경우엔 피해자가 실제 그런 영상을 찍었다고 오인하기 쉽다.

소위 ‘지인능욕’이라며 주변 사람의 사진을 포르노에 합성하거나, ‘리벤지 포르노’라는 이름으로 헤어진 연인의 얼굴을 딥페이크 영상으로 만들어 유포한 사례가 있었다. 명백한 범죄 행위다.

합성 대상이 정치인이 될 경우 가짜뉴스의 온상이 된다.

정치인이 하지도 않은 말을 한 것처럼 꾸미거나, 하지 않은 행동을 한 것처럼 만들 수 있다. 이것이 그가 내세우는 정책과 반대되는 내용이라면 그는 한순간에 국민의 신뢰를 잃은 정치인으로 전락하게 된다.

국가 정상이 합성된 영상이 특정 국가에 선전포고를 하게 된다면? 딥페이크가 전쟁의 불씨가 되는 시나리오가 전혀 허황된 이야기가 아니다.

트럼프 대통령의 얼굴을 합성한 딥페이크 영상. 정치적 발언이 얼마든지 조작될 수 있음을 보여준다. [사진=Derpfakes]
트럼프 대통령의 얼굴을 합성한 딥페이크 영상. 정치적 발언이 얼마든지 조작될 수 있음을 보여준다. [사진=Derpfakes]

영상도 진위 판별해야 하는 시대

딥페이크로 인한 피해가 속출하자 세계 인터넷기업들도 대책 마련에 분주하다.

딥페이크의 시초가 되다시피한 미국의 대형 커뮤니티 사이트 레딧(Reddit)은 딥페이크와 관련한 서브레딧을 종료했다.

콘텐츠 확산에 지대한 역할을 하는 SNS 서비스도 이에 동참했다. 트위터가 딥페이크 콘텐츠를 배제하는 정책을 도입하는가 하면, 페이스북은 딥페이크 영상을 탐지하는 기술 개발에 나섰다.

이미지∙영상 제작툴 전문기업 어도비는 사진이나 동영상의 원저작자와 원본을 찾을 수 있는 디지털 워터마크를 도입했다.

국내 업체로는 머니브레인이 딥페이크 검출 기술을 개발하고 있다. 다양한 베이스 모델을 통해 진짜와 가짜를 스스로 판별할 수 있도록 지속적으로 반복 학습시키는 연구를 진행 중이다.

알엔딥은 성폭력 및 음란물 유해 사이트를 막는 ‘레드 AI’ 기술을 기반으로 딥페이크 검출 기술 개발에 매진하고 있다.

국내에선 지난 3월 ‘성폭력범죄의 처벌 등에 관한 특례법 일부개정안(이하 딥페이크법)’이 통과됐다.

딥페이크법은 딥페이크 음란 영상물의 제작·유통을 처벌하는 내용을 담고 있다. 반포 등을 목적으로 성적 욕망 또는 수치심을 유발할 수 있는 영상 또는 음향을 제작할 경우 5년 이하의 징역 또는 5000만원 이하의 벌금에 처해진다.

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • [인터넷 신문 등록 사항] 명칭 : ㈜한국정보통신신문사
  • 등록번호 : 서울 아04447
  • 등록일자 : 2017-04-06
  • 제호 : 정보통신신문
  • 대표이사·발행인 : 함정기
  • 편집인 : 이민규
  • 편집국장 : 박남수
  • 서울특별시 용산구 한강대로 308 (한국정보통신공사협회) 정보통신신문사
  • 발행일자 : 2024-04-19
  • 대표전화 : 02-597-8140
  • 팩스 : 02-597-8223
  • 청소년보호책임자 : 이민규
  • 사업자등록번호 : 214-86-71864
  • 통신판매업등록번호 : 제 2019-서울용산-0472호
  • 정보통신신문의 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재·복사·배포 등을 금합니다.
  • Copyright © 2011-2024 정보통신신문. All rights reserved. mail to webmaster@koit.co.kr
한국인터넷신문협회 인터넷신문위원회 abc협회 인증 ND소프트