UPDATED. 2024-04-25 17:39 (목)
'챗GPT 시대' 법·제도 재정비 필요성 커진다
'챗GPT 시대' 법·제도 재정비 필요성 커진다
  • 차종환 기자
  • 승인 2023.04.02 19:00
  • 댓글 0
이 기사를 공유합니다

저작권 침해 책임 불분명
개인정보 보호 범위도 제각각

편향적 결과물 부작용 '주의'
“국제협력 통한 법 개선해야”
마이크로소프트는 검색엔진 ‘빙’에 챗GPT를 적용한 바 있다. [사진=MS]
마이크로소프트는 검색엔진 ‘빙’에 챗GPT를 적용한 바 있다. [사진=MS]

[정보통신신문=차종환기자]

전세계적인 챗GPT 열풍에 힘입어 생성형 인공지능(AI)이 불러일으킬 여러 법적 쟁점들이 가시화되고 있다.

챗GPT란, 딥러닝을 이용해 인간과 유사한 텍스트를 생성하는 언어 모델로, 출시 이후 웹 애플리케이션 역사상 가장 빠른 속도로 이용자수를 늘려가고 있는 서비스가 됐다.

하지만 부정확한 정보 제공의 가능성, 챗GPT에 의존한 사람의 능력 저하 등 여러 부작용들도 나타나고 있는 상황이다.

한국지능정보사회진흥원(NIA)은 최근 ‘챗GPT 등장과 법제도 이슈’ 보고서를 발표하고 생성형 AI로 인해 불거질 법적 쟁점과 대응방안에 대해 조명했다.

보고서에 따르면 해당 쟁점은 크게 △저작권 △개인정보 △챗GPT의 오용 △책임과 관련한 내용으로 나뉜다.

저작권은 생성형 AI가 작동하는 방식을 감안하면 필연적인 이슈로 대두되고 있다.

생성형 AI는 웹스크래핑, 오픈소스 저장소 마이닝 등을 통해 얻은 데이터로 AI 모델을 훈련시키는데, 이때 저작권자의 사용허가 없이 저작물을 학습용 데이터로 이용할 수 있는지가 관건이다.

저작자의 동의없이 저작물을 AI 학습용 데이터로 사용할 수 있는 근거로 저작권법상 ‘공정한 이용’ 또는 정보분석 목적의 사용을 허용하는 ‘TDM(Text and Data Mining) 면책 규정’의 적용 여부가 논란이 되고 있다는 설명이다.

기존 저작물의 저작권 또는 상표권 등을 침해하는 결과물이 생성되는 경우, 권리 침해에 대한 책임이 AI 이용자, 알고리즘 개발자 또는 결과물을 보관하고 모델을 학습하는 데 사용하는 AI 제공자에 있는지도 불분명하다.

개인정보와 관련한 문제는 생성형 AI가 지닌 가장 민감한 이슈 중 하나다.

챗GPT의 이전 버전인 GPT-2의 경우만 봐도, 생성 결과에 포함됐던 ‘암기한 데이터’를 분류한 결과, 개인의 이름, 연락처 등 개인정보와 저작물 등이 포함돼 있는 것이 확인됐다.

챗GPT 학습용 데이터로 사용한 공개된 정보에는 ‘공개된 개인정보’도 포함돼 개인정보 활용에 논란의 소지가 존재한다는 설명이다.

영국, 프랑스, 캐나다 등 일부 국가에서는 정보주체의 동의없이 ‘공개된 개인정보’를 수집∙이용하는 것을 개인정보 보호 위반으로 보고 있지만, 호주는 ‘공개된 개인정보’에 개인정보 보호법이 적용되지 않는다고 명시하고 있고 미국은 ‘공개된 개인정보’를 개인정보에서 배제하는 입법을 추진 중이다.

우리나라의 경우 ‘공개된 개인정보’에 대해 별도의 법률 규정이 없으나 공개된 개인정보의 처리와 관련한 판례는 합법성 여부의 근거, 논리에 다소 차이를 보이고 있는 것으로 나타난다.

챗GPT의 오용 문제는 이미 사회 곳곳에 나타나고 있다.

챗GPT를 이용하면 숙련된 프로그램 스킬 없이도 사이버 해킹을 위한 정교한 악성소프트웨어를 생성할 수 있다. 진짜 사람과 대화하는 것처럼 문장을 만들기 때문에 피싱 및 악의적인 광고 사기로 악용될 가능성도 있다.

고객정보나 영업비밀 또는 민감한 개인정보 등을 입력하면 유출될 우려가 있다. 챗GPT에 입력된 데이터는 미국에 소재지가 있는 오픈AI사에 넘어가 처리되는데, 그 처리 범위가 명확히 제시돼 있지 않다.

또한 대규모 언어모델은 학습용 데이터의 편향을 표현하도록 학습될 수 있고, 설계자의 개인적 편향성이 투영된 결과물을 생성할 수 있어 주의가 필요하다.

내용의 정확성과는 별개로 문법적으로만 완전한 문장을 구현하기 때문에 허위 사실로 구성된 가짜뉴스를 생성하기도 쉽다.

책임과 관련한 이슈는 생성형 AI 이용으로 인해 권리침해 등 피해가 발생하는 경우 충분한 원인, 책임 파악 및 피해구제가 곤란할 것으로 예상되는 데 기인한다.

생성형 AI의 인간이 개입되지 않는 자동화 처리는 블랙박스적 특성으로 인해 결과 도출 과정과 그 이유 등을 명확히 파악하기 곤란하다.

이에 AI 표준 계약 내용을 보다 구체화∙체계화 해 공정하고 안전한 이용관계 및 환경을 조성할 필요가 있다는 설명이다.

보고서는 생성형 AI기술이 발전하고 사용 사례가 증가하면서 새로운 법적 문제를 초래하고 사업적 위험과 기회도 같이 발생할 수 있어, 국가 사회 전반에 미치는 영향력을 주의깊게 모니터링할 필요가 있다고 강조했다.

해외 국가들의 동향 파악 및 국제 협력을 통해 법제 개선 방향의 지향점을 맞춰가면서도 신속성을 담보할 수 있도록 법제 개선의 노력이 필요하다는 지적이다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • [인터넷 신문 등록 사항] 명칭 : ㈜한국정보통신신문사
  • 등록번호 : 서울 아04447
  • 등록일자 : 2017-04-06
  • 제호 : 정보통신신문
  • 대표이사·발행인 : 함정기
  • 편집인 : 이민규
  • 편집국장 : 박남수
  • 서울특별시 용산구 한강대로 308 (한국정보통신공사협회) 정보통신신문사
  • 발행일자 : 2024-04-25
  • 대표전화 : 02-597-8140
  • 팩스 : 02-597-8223
  • 청소년보호책임자 : 이민규
  • 사업자등록번호 : 214-86-71864
  • 통신판매업등록번호 : 제 2019-서울용산-0472호
  • 정보통신신문의 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재·복사·배포 등을 금합니다.
  • Copyright © 2011-2024 정보통신신문. All rights reserved. mail to webmaster@koit.co.kr
한국인터넷신문협회 인터넷신문위원회 abc협회 인증 ND소프트