지난해 4월 유튜브 채널에 게재된 '이 동영상에서 오바마가 하는 말을 믿지 마라'는 제목의 영상에서는 버락 오바마 전 미국 대통령이 “트럼프 대통령은 쓸모없는 사람”이라고 태연한 표정과 목소리로 말하는 모습을 볼 수 있다. 충격적 내용에 많은 사람들이 당황했지만, 이내 영상의 진실이 뒤이어 나온다. 이 영상은 실제가 아니었다.
해당 영상은 콘텐츠 제작사 버즈피드가 만든 것이다. 영화감독 조던 필이 성대모사한 목소리를 실제 오바마 전 대통령 영상에 입히고, 입 모양을 바꾼 것이다. 이 영상 제작에는 '딥페이크' 기술을 사용했다.
딥페이크는 딥러닝과 가짜(페이크)의 합성어다. 딥러닝 기술을 활용해 서로 다른 이미지나 영상을 합쳐 원본과 다른 것을 만들어낸다. 이미 이 기능을 구현한 소프트웨어(SW)도 다수 나와 있다.
대상이 되는 인물의 이미지를 추출해 인공신경망을 통해 학습시키고 합성하는 방식이다. 적게는 수백 장이 넘는 이미지가 필요하고, 일부 깜빡거리는 현상이나 얼굴 일부부이 잘리는 경우가 있지만 대부분의 경우 쉽게 조작 여부를 알아차리기 어렵다.
최근에는 '생성적 적대 신경망(GAN)'을 활용한 신기술 적용으로 더욱 그럴싸한 조작 영상을 만드는 방법도 나왔다. 하나의 신경망이 영상을 만들면, 또 다른 신경망이 가짜 여부를 판별하게 하는 과정을 반복하는 방식이다. 이 경우 영상을 진짜처럼 만드는 능력이 점점 강화돼, 결국에는 가짜와 진짜를 전혀 구별할 수 없게 된다.
딥페이크는 다방면에 쓸 수 있다. 독일 뤼벡대 연구진은 GAN 기반 딥러닝 알고리즘을 암진단에 활용하는 성과를 발표했다. 의료영상을 활용한 진단에 기술을 이용, 이전보다 정확한 진단을 가능하게 하는 것이다. 엔터테인먼트 분야에도 쓸모가 많다. 실제 촬영 없이 더 많은 영상을 손쉽게 만들어낼 수 있다.
문제는 딥페이크가 악용됐을 경우다. 한창 논란이 됐던 '가짜뉴스' 이상의 파급력을 가진다. 영상을 허위정보 근거로 삼을 수 있기 때문에 더 많은 사람이 속아 넘어갈 수 있다. 영상 제작도 훨씬 쉽고 빠르다. 일정 성능 이상 그래픽 카드를 장착하면 가정용 PC에서도 충분히 딥페이크 영상을 만들어낼 수 있는 것으로 알려져 있다. 이를 활용해 대선 후보의 발언을 조작해 '사실'로 만들고, 부정적인 여론을 이끌어 낸다면 민주주의 근간은 송두리째 무너지게 된다.
성범죄에도 악용 소지가 크다. 포르노 영상에 특정 인물 얼굴을 합성해 해당 인물의 존엄성을 크게 훼손할 수 있다. 신종 명의 도용 수단으로도 악용될 가능성이 있다.
이미 다방면에서 대응책 마련 노력이 계속되고 있다. 미국에서는 지난 7월부터 딥페이크 포르노를 보복성 음란물로 포함시키는 법을 발효했다.
물론 이에 대응하는 기술도 개발되고 있다. 딥페이크를 식별하는 기술이 여러 곳에서 개발되고 있다. 페이스북의 경우 120억원을 투입해 딥페이크 탐지 기술에 나선다고 이달 초 밝혔다. 그러나 딥페이크 기술은 계속 발전할 전망이다. 해킹·크래킹과 보안 기술의 예가 그렇듯이 대응하는 기술은 범죄 활용 기술에 뒤쳐지기 십상이다. 딥페이크와 파훼기술 간 쫓고 쫓기는 추격전 와중에 얼마나 많은 피해가 발생할지 알 수 없다.
대전=김영준기자 kyj85@etnews.com