가짜뉴스 이어 '딥페이크' 비상...가짜 포르노 부작용 주의 [지식용어] 
가짜뉴스 이어 '딥페이크' 비상...가짜 포르노 부작용 주의 [지식용어] 
  • 보도본부 | 박진아 기자
  • 승인 2019.06.13 17:21
  • 댓글 0
이 기사를 공유합니다

[시선뉴스 박진아] 성대모사를 하는 사람. 그 사람의 얼굴이 점점 성대모사를 하는 사람의 얼굴로 변해간다면 어떨까. 이런 상황이 지난달 발생했다. 

미국 코미디언 빌 헤이더가 코난 오브라이언의 토크쇼에 나와 배우 아널드 슈워제네거의 성대모사를 한다. 헤이더가 슈워제네거의 목소리를 흉내 내는 동안 헤이더의 얼굴은 조금씩 변해 몇 초 만에 슈워제네거의 얼굴이 됐다.

지난달 유튜브에 게시돼 600만 번 가까이 조회된 이 영상은 당연히 진짜가 아니라 조작된 '딥페이크'(deepfake) 영상이다.

대부분의 사람들이 웃고 넘긴 이 영상. 그런데 미국 NBC 뉴스는 현지시간으로 12일 유튜브의 딥페이크 영상 중에서도 가장 많은 조회 수를 기록한 이 영상을 소개하며 "단순한 즐길 거리가 아니라 경고"라고 표현했다.

유튜브 캡쳐
유튜브 캡쳐

딥페이크는 '딥러닝(Deep Learning)'과 '페이크(Fake·가짜)'의 합성어로, 인공지능 기술을 활용해 합성한 영상을 가리킨다. 

NBC가 이 영상에 대해 경고한 이유는, 기술의 정도가 놀라울 정도로 완벽하기 때문이다. 

헤이더의 얼굴이 슈워제네거로 변하는 시간은 몇 초에 불과하지만 워낙 물 흐르듯 자연스럽게 바뀌어 전혀 위화감을 주지 않는다. 그동안 영화 속에서 특수효과 정도로 봤던 것과는 느낌이 전혀 달라 이러한 기술이 우리 생활에 적용됨을 상상하면 그냥 웃고만 있을 수가 없다. 

진실이 아닌데 마치 진실인 양 떠돌아 다닌 가짜뉴스. 가짜뉴스가 성행하며 어떤 것이 진짜인지 구분이 가지 않는 사회적 문제를 낳기도 했다. 그런데 바로 이런 딥페이크 기술이 가짜뉴스보다 더 악용될 우려가 있고, 위험할 수 있다는 것. 

미국 정치권이나 정보기관에서는 일찌감치 딥페이크의 위험성을 경계해왔다. 2016 대선을 앞두고 기승을 부린 가짜뉴스처럼 2020 대선 국면에서 딥페이크가 유권자에 거짓 정보를 퍼뜨릴 수 있다는 것이다.

실제로 헤이더-슈워제네거 영상을 게시한 체코 출신 그래픽 일러스트레이터는 딥페이크의 위험성을 경고하기 위해 이 영상을 만들었다고 했다.

가짜 포르노의 제작도 딥페이크의 부작용 중 하나다. 인터넷 커뮤니티 레딧은 사이트 내에 딥페이크 포럼을 열었는데 연예인이나 심지어 일반인의 얼굴까지 당사자의 동의 없이 포르노에 합성한 영상이 잇따라 올라오자 포럼을 폐쇄했다고 NBC는 전했다.

내가, 내 애인이나 배우자가 발가벗은 영상을 모든 사람들이 본다면 어떨까. 그것도 내가 아닌데, 진짜처럼 만들어진 모습 말이다. 대부분은 가짜임을 알고도 그 모습을 지우지 못할 것이다. 

기술의 발달은 사회적 위협이라는 양면을 언제나 동반하지만, 딥페이크 영상 기술의 발달은 그 중 우리가 경각심을 갖고 대비해야 하는 기술 중 하나가 될 것이다. 


닫기