• 페이스북
  • 트위터
  • 유튜브

'명동 거리 걷는 여자' 글자 입력하면 영상 뚝딱…딥페이크 확산 기폭제?

등록 2024.02.21 08:28:16수정 2024.02.21 08:54:56

  • 이메일 보내기
  • 프린터
  • PDF

정교해진 '딥페이크' 기술…3명 중 2명은 구분 못해

"4월 총선 한국, 딥페이크 확산 시 사회적 대혼란"

한 누리꾼이 사기성 암호화폐 프로젝트를 홍보하는 일론머스크 딥페이크 영상을 올리자 일론머스크가 영상 속 인물은 자신이 아니라고 댓글을 달았다(사진=X갈무리) *재판매 및 DB 금지

한 누리꾼이 사기성 암호화폐 프로젝트를 홍보하는 일론머스크 딥페이크 영상을 올리자 일론머스크가 영상 속 인물은 자신이 아니라고 댓글을 달았다(사진=X갈무리) *재판매 및 DB 금지

[서울=뉴시스] 오동현 기자 = "가짜야, 진짜야"

대화형 인공지능(AI) '챗GPT' 개발사 오픈AI가 이번엔 텍스트 입력만으로 고화질의 동영상을 만들어주는 AI 모델 '소라(Sora)'를 공개해 세상을 또 다시 놀라게 했다.

전문 영상 제작자가 아니더라도 누구나 최대 1분 분량의 동영상을 단숨에 만들 수 있는 혁신 기술로 통한다. 하지만 우려의 목소리도 적지 않다. 누구나 쉽게 AI로 영상을 제작할 수 있게 되면서 유튜브 등 소셜미디어를 통해 무차별적인 딥페이크 영상이 유포될 수 있다는 지적이다.

글자로, 사진으로, 영상으로 명령만 하면 AI 영상 '뚝딱'

오픈AI는 지난 15일(현지시간) 블로그를 통해 고화질 동영상을 생성하는 AI 모델 '소라(Sora)'를 공개했다. '소라'는 언어에 대한 깊은 이해를 갖고 있어 프롬프트를 정확하게 해석하고 생생한 감정을 표현하는 매력적인 캐릭터를 생성할 수 있다 것이 오픈AI의 설명이다.

'소라' 프롬프트에 '한 세련된 여성이 따뜻하게 빛나는 네온사인과 생동감 넘치는 도시 간판으로 가득한 도쿄 거리를 걷고 있다. 그녀는 자신감 있고 자연스럽게 걷는다. 젖은 길은 화려한 조명에 반사돼 거울 효과를 만들어 낸다. 많은 보행자들이 걸어 다닌다' 등의 텍스트를 입력하면 전문가 수준의 고품질 영상이 만들어진다.

텍스트 뿐만 아니라, 기존의 이미지를 영상으로 만들거나, 기존 영상에서 누락된 장면을 추가해 분량을 확장하는 방식으로도 활용할 수 있다. 또 기존의 두 영상을 자연스럽게 하나로 이어 합치거나, 배경을 변경하는 등 다양한 편집 작업도 수행할 수 있다.

다만 아직은 물리적 인과관계를 완벽하게 구현하지 못한다. 이를 테면 러닝머신을 거꾸로 뛰는 사람의 영상을 생성하거나, 과자를 한 입 먹었는데도 과자가 그대로 남아있는 영상을 만들어낸다. 이런 미완성 단계인 만큼, 오픈AI는 '소라'에 대한 이용을 일부 창작자에게만 허용한 상태다. 출시 시기도 미정이다.  

정교해진 '딥페이크'…무차별 확산 어쩌나

딥페이크 기술로 손석구의 어린 시절 모습을 그려낸 '살인자ㅇ난감' 속 장면(사진=넷플릭스 제공) *재판매 및 DB 금지

딥페이크 기술로 손석구의 어린 시절 모습을 그려낸 '살인자ㅇ난감' 속 장면(사진=넷플릭스 제공) *재판매 및 DB 금지

문제는 '소라'와 같은 동영상 생성 AI 모델이 대중화된 다음이다. 누구나 쉽게 AI로 영상을 제작할 수 있게 되면, 유명인을 사칭한 딥페이크 영상도 유튜브나 소셜미디어를 통해 무차별적으로 유포될 수 있다는 우려가 나온다.

딥페이크 기술은 AI 기술로 조작된 영상을 만들어 사실 같이 보이게 하는 기술이다. 이를 악용할 경우 심각한 부작용을 야기한다. 만약에 특정 국가가 핵 미사일을 발사한다는 딥페이크 영상이 유포될 경우, 진위여부가 밝혀질 때까지 전 세계가 혼란에 빠질 수 있다.

이미 딥페이크 기술은 진짜와 가짜를 구분할 수 없을 정도로 정교해졌다. 스코틀랜드 에버딘대학교 연구진이 일반인 124명을 대상으로 실험한 결과, 약 65%가 AI가 만든 가짜 얼굴과 실제 사람의 얼굴 사진을 구분하지 못한 것으로 조사됐다. 실험 참가자 3명 중 2명이 AI로 만든 얼굴을 "실제 사람 얼굴"이라고 오판한 것이다. 실제 사람의 얼굴 사진을 "사람"이라고 선택할 확률은 51%에 불과했다.

딥페이크 악용 범죄는 이미 현실에서 나타나고 있다. 최근엔 미국의 유명 여배우이자 가수인 테일러 스위프트의 얼굴을 합성한 음란 영상이 소셜미디어 X(엑스)에서 17시간 동안 방치되는 사건이 발생했다. 조회수가 4700만회를 넘어설 정도로 파장이 커지자, 미국 백악관에서 대변인이 브리핑을 할 정도였다. 딥페이크의 위험성과 파급력을 재확인한 사건이다.

이런 생성 AI의 부작용에 대해 오픈AI는 "폭력적이거나 성적인 콘텐츠, 유명인과 유사한 이미지 생성 등에 대한 요청은 거절할 것"이라며 "안전성 확보를 위해 전문가 검증을 거치고 있다"고 밝혔다. 또 오픈AI는 메타, 구글과 같이 AI가 생성한 이미지에 라벨(꼬리표)을 부착하겠다고 발표한 바 있다.

김명주 서울여대 교수는 "딥페이크는 표현의 자유를 증대하는 새로운 창작 도구다. 다만 이를 악용할 경우 심각한 사회적 혼란을 초래할 수 있다"면서 "오픈AI 등 글로벌 빅테크 기업들이 미국의 전현직 대통령 등 유명인에 대한 이미지 생성 요청을 거부하겠다고 밝혔는데, 자국이 아닌 해외의 상황은 반영하지 않을 수도 있다:고 우려했다.

이어 "우리나라는 4월 총선을 앞두고 있다. 만약 사실과 다른 딥페이크 영상이 확산할 경우 민주주의의 근간을 흔들 수 있다. 심지어 선거 결과에 대한 사회적 불신이 생길 수도 있다"면서 "딥페이크의 폐해를 막기 위한 견제와 다양한 논의가 필요하다"고 조언했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사