딥페이크는 쉽게 설명하자면 이미지나 영상을 인공 기술학습 알고리즘을 이용하여 이미지를 정교화시키는 것이다. 여러 이미지의 합성을 통해 아예 존재하지 않는 얼굴이나 이미지를 만들 수 있는데, 요즘 연예인들을 제치고 상품 광고에 혜성처럼 스타로 떠오르는 아바타 모델을 만드는 기술이기도 하다. 또한 기존 영상이나 이미지에 특정인의 얼굴을 넣으며 훈련시켜 진짜 이미지와 가짜 이미지의 오차를 최소화하여 거의 진짜 같은 가짜 이미지를 만들어 낼 수 있는 기술인데, 이 부분이 큰 사회적 정치적 문화적 문제로 떠오르고 있다.
딥페이크는 이미 오래전부터 진행이 되어왔고 여러 시도와 악용 사례들이 있었으나, 딥페이크에 대한 경각심이 커진 것은 2018년 전후로 본다. 그해 4월 미국의 버즈피드(BuzzFeed)라는 인터넷 미디어 플랫폼에서 버락 오바마가 도널드 트럼프에게 ‘한심한 사람(dipshit)’이라 험담을 하는 비디오가 떠서 미국을 발칵 뒤집었다. 디지털로 만들어진 오바마 아바타였다. 이로 인해 잘 알려지지 않았던 딥페이크라는 기술과 이 기술이 잘못 이용되었을 때 그 결과로 나타날 수 있는 위험성을 대중에 알리는 기회가 되었다.
실제 딥페이크로 퍼지는 가짜뉴스는 다른 어느 것보다 파급효과가 큰데, 이는 바로 우리가 내 눈에 실제 보이고 내 귀에 실제 들리는 것을 즉각적으로 사실이라고 믿는 우리의 본능 때문이다. 또한 인간의 본능은 자극적이고 신기한 정보에 쉽게 집중하게 되어 있다. 즉 가짜 정보가 글로 돌아다니면 사고를 통한 인지적 프로세스가 관련된다면, 딥페이크를 통해 돌아다니는 가짜 정보는 이미지와 음성 등 훨씬 더 본능에 의존하는 즉각적 프로세스가 인지보다 쉽고 빠른 감각 기관으로 전해지기에 그 전달력과 신뢰성이 훨씬 더 강력하다.
이런 강력한 정보전달 능력을 잘못 이용할 경우 심각한 사회적 정치적 문화적, 그리고 개인권에 크게 반하는 상황을 만들어 낼 수 있다. 예를 하나 더 들어보겠다. 얼마 전 테드(TED) 강연에서 한 인디안 여성 저널리스트의 상황을 소개한 적이 있다. 그녀의 이름은 라나 아이윱브(Rana Ayyub)인데, 그녀는 인도 정부의 부패와 인권 문제를 밝히는 기자였다. 그녀는 인도에서 중요한 정치인을 감옥에 보내는 데 큰 역할을 한 바 있는데, 2018년 4월 어느 날 이메일 하나를 받는다. 그녀에 대한 비디오가 떠돌 것이라는 내용이었다. 그 비디오는 2분 30초 정도의 음란물이었는데, 거기 나오는 여자의 얼굴이 그녀였다. 당연히 딥페이크를 이용하여 합성된 영상이었다. 이 이메일이 그녀에게 전해진 지 몇 시간 만에 그녀의 아버지는 물론 형제, 친척, 사촌들을 포함한 그녀와 가까운 사람들에게 모두 전해졌고, 조직적으로 진행된 무차별한 전파로 약 48시간 사이에 인도인 거의 반 이상의 폰에 다운로드가 되었다고 한다.
물론 이는 그녀에 대한 정치적 보복이었다. 그러나 그녀의 상황을 이해도 못 하고 알고 싶지도 않은 대중에게 그저 이는 유명인의 진짜 사생활이 실수로 밖으로 나와 돌아다닌다고 생각되는 음란물이었다. 이 비디오는 그녀의 모든 사회망에 도배가 되었고, 그녀에게는 무수한 성적 협박, 매춘 제안, 입에 담지 못할 험담들이 보내졌으며, 이로 인해 그녀는 거의 몇 개월을 기자 생활은커녕 무서움과 두려움, 하지도 않은 일에 대해 모욕감으로 오랜 시간 집밖에 한 발짝도 나가지 못했다고 한다. 도덕과 정의를 위해 목숨을 걸고 싸우는 기자의 인생을 삽시간에 바꾸어 놓은 것이다.
그러나 딥페이크는 반드시 유명인이나 정치인, 연예인만을 타깃으로 하는 것이 아니다. 일반인들까지 페이스북이나 인스타그램 등 인터넷에 쉽게 구할 수 있는 사진만 있으면 무차별 피해를 줄 수 있는 기술이다. 또한 이런 비디오가 대중으로 퍼지게 하는 소셜 네트워크 플랫폼이 딥페이크 영상을 차단하기에는 한계가 있다. 실제 이렇게 합성한 비디오로 접근하여 배포한다고 협박하여 금전적 요구를 하는 형태의 범죄 발생 빈도도 늘고 있다.
그럼에도 불구하고 아직 정부, 기업, 사회적 차원에서 마땅한 방지책이나 해결책을 내놓지 못하고 있다. 페이스북이나 구글이 딥페이크를 가려내는 기술을 개발해 활용하려 노력하고 있으나 딥페이크의 발전 속도를 따라가지 못하고 있으며, 어찌 보면 이는 이길 수 없는 경쟁이다. 또한 얼마 전 페이스북에서 딥페이크인지 알면서도 영상을 삭제하지 않은 경우가 있어 논란이 있었다. 이런 어려움들은 기술적으로 대응하는 노력과 함께 행위를 제약할 수 있는 ‘비기술적’ 접근을 요구하는데, 이도 그리 체계적으로 진행되지 않는 상황이다. 예를 들어, 딥페이크는 촬영이 아니라 합성이기에 그 법적 처벌이 너무나 미약하다. 딥페이크의 악용 문제는 앞으로도 더욱 커질 것이며, 초기 단계에서 이를 제재할 수 있는 도덕적, 기술적, 사회적, 법적 기반과 조치를 서둘러 마련해야 한다.