• 페이스북
  • 트위터
  • 유튜브

[기자수첩] 딥페이크 영상 확산 이대로 괜찮나?

등록 2021.12.03 11:35:33수정 2021.12.03 13:56:43

  • 이메일 보내기
  • 프린터
  • PDF
[기자수첩] 딥페이크 영상 확산 이대로 괜찮나?


[서울=뉴시스] 이수지 기자 = 딥페이크는 인공지능(AI) 기술을 이용해 진위를 구별하기 어려운 가짜 이미지나 영상물을 뜻한다.

2017년 처음 등장한 이후 온라인 커뮤니티와 소셜네트워킹서비스(SNS)에서 성행하고 있는 딥페이크는 영상 산업에서는 과거를 재현하거나 더는 실존하지 인물을 그릴 때 유용한 특수효과 수단으로 널리 활용되고 있다

문제는 이 유용한 딥페이크가 가짜뉴스를 양산하고 성범죄에 악용돼 사회적 혼란과 피해를 야기한다는 점이다.

방송통신심의위원회는 지난달 K팝 아이돌 가수들의 초상을 이용한 딥페이크 등 성적 허위영상물을 중점적으로 모니터링해 614건의 접속을 차단했다.

방심위는 "동의 없이 대상자의 의사에 반해 성적 욕망 또는 수치심을 유발할 수 있는 형태로 편집·합성 또는 가공 및 반포한 것은 '성폭력범죄의 처벌 등에 관한 특례법' 제14조의2에 따른 명백한 범죄행위"라고 지적하고 "잘못된 팬심에서 이를 시청하는 것 또한 2차 피해에 가담하는 행위에 해당되므로, 재유포하거나 시청하지 않는 것이 올바른 팬심"임을 강조했다.

딥페이크의 성범죄 악용문제는 이미 해외에서 제기됐다. 2018년 12월 네덜란드 사이버 보안연구회사인 딥트레이스의 연구결과에 따르면 딥페이크 영상은 7964개에서 2019년 1만4678건으로 전년도보다 84% 상승했다. 그중에서도 성인물이 전체 96%를 점유한 것으로 나타났다.

딥트레이스가 당시 딥페이크 성인용 콘텐츠 전용 사이트 5곳의 영상을 분석한 결과, 영상에 등장하는 특정 인물의 성별이 모두 여성이란 점도 지적했다.

최근 한국에서 딥페이크 확산 양상도 이와 다르지 않다. 이번에 접속 차단된 614건 중 불법음란사이트에서 유포된 딥페이크가 절반을 넘는다. 418건(68.1%)이 불법음란사이트에서 딥페이크 영상물 형태로, 196건(31.9%)은 SNS를 통해 합성된 이미지 형태로 각각 유통됐다.

그 확산세도 심상치가 않다. 방심위가 공개한 성적 허위정보영상물 처리 현황 자료에 따르면 지난해 하반기(6~12월) 동안 방심위가 접속 차단하고 삭제한 성적 허위정보영상물 건수가 548건에서 올해 하반기(6~11월) 1806건으로 3배 이상 증가했다.

또 다른 문제는 딥페이크 영상 규제의 한계가 딥페이크 영상 확산을 막지 못할 수 있다는 점이다. 방심위가 성적 허위정보영상물을 처리하려면 피해 당사자인 아이돌 그룹 멤버나 소속사가 방심위와 유관기관에 신고해야 한다. 다시 말해 피해 당사자가 신고하지 않으면 성적 허위정보영상물을 삭제하거나 접속을 차단할 수 없다는 이야기다.

딥페이크 영상이 증가하면 이 또한 규제가 한계에 부딪힐 수 있다. 방심위 디지털성범죄 소위원회의 모니터링 전문 인원은 모두 6명이다. 모니터링 전문 인원들이 발견하지 못한 성적 허위정보영상물은 계속 확산할 수 있다.

특히 연예인 성적 허위영상물은 가수 얼굴과 불법음란물을 합성해 피해 당사자들에게 성적 모욕감과 수치심을 유발하기에 인권침해 측면에서 심각한 사회 문제다. 성적 허위정보영상물의 확산을 막지 못한다면 그 피해는 가중될 수 있다.

최근 한류 열풍에 한국 연예인들에 대한 해외 팬들의 관심이 높아지고 있다. 성적 허위영상물이 주로 해외 팬들이 많은 K팝 아이돌 그룹 여자 가수들에게 피해를 주고 있어 이는 한류 확산에도 좋지 않은 영향을 줄 것이 불 보듯 뻔하다.  

코로나 19 장기화로 미디어가 빠르게 디지털화하는 상황에서 딥페이크 영상에 사회가 혼란해지고 피해 당사자가 2차 피해를 보지 않도록 대책 마련이 시급하다.


◎공감언론 뉴시스 [email protected]

많이 본 기사