빠르게 진화하는 이미지 합성 기술
정치적‧경제적 악용될 가능성 높아
음란물 합성 피해사례 이미 확산 중 
미국‧EU는 법적제도화 선제적 추진 
“국내도 입법적‧기술적 논의 이뤄져야”

ⓒ유튜브 HallyuBytes 채널 영상 캡쳐
 딥페이크 기술을 이용한 케이팝 팬아트 동영상 ⓒ유튜브 HallyuBytes 채널 영상 캡쳐

【투데이신문 박주환 기자】 지난해 온라인에는 유명 케이팝 그룹 트와이스와 레드벨벳의 팬아트 동영상 한편이 등장했다. ‘Twice and Red Velvet in Gang Fight’라는 제목의 유튜브 동영상인데, 영화 ‘써니’에서 등장하는 여중생들의 싸움 장면에 각 소속 가수들의 얼굴을 합성해 제작됐다. 이 동영상은 케이팝 팬이 제작한 일종의 놀이영상으로, 두 그룹의 경쟁구도를 영화 속 장면에 빗대어 풀어내 흥미를 끌었다. 

해당 동영상 속 얼굴 합성은 상당히 자연스럽다. 합성이라는 사실을 사전에 인지하지 않았다면 진위여부를 한눈에 알아차리는 것도 쉽지 않다. 이른바 딥페이크(Deepfake)라는 영상 합성기술의 발달 때문이다. 인공지능(AI) 기술의 향상으로 딥페이크가 구현하는 합성의 사실성은 빠르게 진화하고 있다. 

동영상 합성 기술이 놀이의 영역에서만 사용된다면 문제가 없겠지만, 정치‧경제적 선동의 도구로 악용될 가능성이 커 세계적인 경계심이 함께 높아지고 있다. 실제 미국의 뉴스 및 엔터테인먼트 콘텐츠 제작사 버즈피드가 지난 2018년 게재한 버락 오바마 전 미국 대통령의 영상은 오바마가 도널드 트럼프 현 미국 대통령을 힐난하는 조작 내용을 담고 있는데, 딥페이크 기술이 가짜뉴스 생성으로 악용될 수 있다는 점을 충분히 보여줬다. 

동영상은 회화와 사진의 시대를 지나며, 사실에 대한 증거의 지위를 확고히 해왔다. 동영상에 촬영됐다는 것은 등장인물이 특정 장소에서 특정 행위를 했다는 증명으로 여겨졌다. 하지만 딥페이크 기술의 등장은 동영상의 사실로서의 입지를 강력히 위협한다. 정치‧경제적으로는 가짜뉴스의 유통으로 인한 의사결정의 혼란이 우려되며, 개인적으로는 정체성 위협이나 성인물 합성 등 사생활에 대한 심각한 침해가 예상된다. 

이와 관련 미국과 유럽연합(EU)에서는 진즉부터 사회적 논의와 함께 법제화 준비가 이뤄지고 있다. 한국에서도 최근 딥페이크 제작 및 처벌에 대한 법안이 발의됐지만, 처벌 규정만으로는 불법행위가 근절되기 쉽지 않은 게 사실이다. 또 해당 법안은 성범죄 피해에 대한 처벌에만 한정돼 있다는 점도 한계로 남는다. 전문가들은 법안 마련과 함께 사회적 인식과 기술적 대비 역시 딥페이크로 인한 가짜뉴스 피해 예방에 중요한 요소들이라고 지적한다. 

2017년 해외 커뮤니티에 게재된 연예인 합성 성인물 영상 중 일부 ⓒ한국언론진흥재단
2017년 해외 커뮤니티에 게재된 연예인 합성 성인물 영상 중 일부 ⓒ한국언론진흥재단

일상화 되는 딥페이크의 위협

딥페이크란 심층학습을 의미하는 딥러닝(Deep-learning)과 가짜라는 뜻을 가진 페이크(Fake)의 합성어다. 딥페이크는 AI를 활용한 이미지 합성 기술로 특정 인물의 얼굴을 다른 영상과 합성하는 방식으로 활용되고 있으며 세계적 산업 잠재력이 상당한 기술로 평가 받는다. 

최근에는 ‘생성적 적대 신경망(Generative Adversarial Networks)’이라는 기술이 접목되면서 보다 사실과 가까운 콘텐츠가 만들어 지고 있다. 이 기술은 이미지를 만들어 내는 알고리즘과 이미지의 진위를 판단하는 알고리즘을 대립시켜 원본과의 오차를 줄여나가는 것이 핵심이다. 

하지만 기술을 통해 연예인들을 비롯한 일반인들의 피해가 예상된다는 부분은 딥페이크가 갖는 명백한 문제점이다. 딥페이크의 시작 자체가 해외 유명 연예인들의 얼굴을 성인영상에 합성했던 것이라는 점을 감안하면 이 같은 우려는 기우가 아니다.   

실제 딥페이크라는 용어는 미국의 대규모 커뮤니티 레딧(Reddit)의 이용자 딥페이커즈(deepfakes)가 지난 2017년 12월 유명인의 얼굴을 성인물에 합성한 동영상을 처음 유포시킨 데서 유래됐다. 

성인물 합성은 딥페이크 기술이 가장 악의적이고 적극적으로 활용되는 분야다. 2017년 당시에는 세계적으로 관심을 끈 영화의 주인공들을 활용해 합성 동영상이 만들어 졌다. 최근에는 국내 케이팝 가수들도 합성 동영상의 피해를 받고 있어 사안의 심각성을 더하고 있다. 

또 얼굴을 촬영한 동영상만 있어도 딥페이크 제작을 위한 수백장의 이미지가 확보되며 일상적인 검색만으로도 SNS를 통해 공개돼 있는 이미지를 다운받아 재료로 삼을 수 있다. 미디어에 의해 수많은 정보가 노출돼 있는 정치인과 연예인들은 딥페이크 기술의 손쉬운 적용 대상이다. 

공개된 오픈소스를 통해 일반인도 간단한 제작이 가능하다는 점도 경각심을 키우는 지점이다, 구글앱스토어에 등록된 몇몇 앱을 통해 두 사람의 얼굴을 바꾸는 것은 이미 일상적으로도 가능한 상황이다. 레딧 이용자 딥페이크스 역시 온라인 이미지 검색, 유튜브 등에서 이미지를 확보했고 오픈소스만 사용해 합성 동영상을 만들었다고 밝힌 바 있다. 

벨기에 다른사회당이 도널드 트럼프 미국 대통령을 등장시킨 것으로 조작해 업로드한 딥페이크 영상. ⓒ벨기에 다른사회당 트위터 

이미 정치적 선동 도구로 활용 중

이밖에도 딥페이크 기술은 특히 정치‧경제적으로 악용될 경우 큰 사회적 혼란을 불러일으킬 것으로 우려된다. 가령 주요 선거 개표 전날이나 당일, 특정 후보자에게 치명적인 정보를 담은 영상이 제작돼 유포된다면 사실관계를 확인해 이를 정정할 시간이 부족할 수밖에 없다. 기업 역시 상장이나 합병, 심사 등을 앞둔 상황에서 허위 영상이 퍼진다면, 주요 결정에 대한 판단이 보류될 가능성이 높다.

올해에는 페이스북 마크 저커버그 최고경영자와 미국 하원 낸시 펠로시 의장의 합성영상이 퍼지며 가짜뉴스에 대한 세간의 관심을 집중시켰다. 저커버그는 14초 분량의 조작된 영상에서 “수십억 명의 비밀과 사생활이 담긴 데이터를 통제할 수 있는 사람이 누구인가”라는 믿기 어려운 발언으로, 앞서 발생한 개인정보유출에 대한 공개 사과를 전면으로 부정하기도 했다. 물론 영상은 사실이 아니었지만 일반인이 진위 여부를 가리기는 어려울 정도로 정교하게 제작됐다. 

앞서 언급한 바 있는 버즈피드의 합성 동영상은 딥페이크 합성에 대한 경각심을 불러일으킨 대표적 사례다. ‘오바마가 하는 말을 믿지 마라’라는 제목의 이 동영상에서 오바마 미국 전 대통령은 평소과 같은 모습으로 등장하지만, 갑가지 트럼프 현 대통령에 대한 욕설에 가까운 비난을 쏟아낸다. 

동영상을 지켜본 시청자들이 당황하려는 순간, 오바마는 “나는 이런 이야기를 한 적이 없다”고 말한다. 그리고 이내 영상은 오바마와 코미디언 조던 필의 얼굴로 분할된다. 버즈피드는 딥페이크 기술을 활용해 이 영상을 제작했고, 영상 중 실제로 오바마가 한 말은 없다고 발표했다.

정치적 악용에 대한 우려는 지난 2018년 5월 벨기에에서 현실화되기도 했다. 벨기에의 정치 정당 중 하나인 다른사회당(Socialistische Partij Anders)은 공식 SNS를 활용해 트럼프 미대통령이 등장하는 딥페이크 영상을 올려 논란이 됐다.  

동영상 속 트럼프는 “벨기에도 미국을 따라 파리기후변화협약에서 탈퇴해야 한다”는 취지의 발언을 내놓는데, 이 콘텐츠는 트럼프 발언에 반발한 시민들이 기후변화 정책에 적극적으로 나설 것을 염두에 두고 제작됐다. 하지만 의도가 어떻든 공식 정당이 거짓정보를 배포했다는 이유로 강력한 사회적 지탄을 받았으며 이 사건 이후 가짜뉴스에 대한 사실검증(Fact check)이 전 세계 언론의 관심사로 떠올랐다. 

ⓒ국회 의안정보시스템
ⓒ국회 의안정보시스템

선제적 대응 위한 사회적 논의 중요

이미 대중적 현상을 통해 딥페이크의 위험성을 인지한 미국과 EU는 법적 제도화 등 피해를 예방하려는 선제적 조치에 나서고 있다. 

먼저 미국의 상‧하원 의원들은 지난 2018년 12월 딥페이크 규제 법안을 내놨다. 이 법안에는 법 발효 200일 이후 18개월마다 딥페이크 기술의 현황을 평가하는 조사와 보고서, 공청회 진행 등에 대한 근거가 담겨있다. 이는 딥페이크가 가진 위험요소를 한 사회가 끊임없이 검토하고 논의해야 한다는 취지를 담고 있어 의미가 크다. 

이밖에도 미 하원에서는 딥페이크 제작물 발신에 레이블(label) 삽입을 의무화 하는 법안이 제출되기도 했으며 주정부들에서는 ‘사이버스토킹법’에 근거한 제작자 처벌이나 개인정보보호를 위한 딥페이크 규제 법안이 발의되기도 했다. 

EU 역시 적극적으로 대응하는 모습이다. 이들은 특히 개인의 잊힐 권리를 강조하며 딥페이크 피해자가 삭제를 요청할 수 있도록 규정했다는 점에서 주목할 만하며, 2018년에는 모든 형태의 허위정보 식별을 위한 대응 조치를 마련했다. 2019년에도 이를 보다 강화한 보고서를 채택해 발표했으며 각 국가별로도 정보조작대처법 등을 신설해 법제화 작업을 상당히 구현했다. 

한국에서는 자유한국당 박대출 의원이 ‘성폭력범죄의 처벌 등에 관한 특례법 일부개정법률안’을 대표발의하며 딥페이크에 따른 성범죄 피해 처벌에 대한 근거를 마련했다. 해당 개정안에는 AI기술을 이용, 음향이나 영상을 합성‧편집해 성적 욕망 또는 수치심을 유발한 경우 이를 처벌할 수 있는 규정이 포함돼 있다. 또 이 같은 음향‧영상 등을 반포하거나 영리목적으로 이용해도 각각 5년 이하, 7년 이하의 징역에 처할 수 있도록 했다. 

법안을 제안한 의원들은 “딥페이크 기술은 다양한 제품이나 산업에 활용될 수 있어 상업적 가치가 크지만 범죄에 악용될 소지가 있어 이에 대한 대응책 마련이 시급하다는 의견이 제기되고 있다”라며 “특정인의 얼굴이나 신체 이미지 등을 기존 음란 영상물 등에 합성해 유포하거나 이를 협박의 수단으로 이용하는 등의 성범죄가 발생하고 있어 이에 대한 처벌규정을 마련함으로써 딥페이크 기술을 이용한 성범죄를 근절하려는 것”이라고 밝혔다. 

이번 법안의 발의로 딥페이크 범죄 처벌에 대한 기반은 마련된 것으로 보인다. 하지만 현재로서는 성범죄 이외의 정치‧경제적 위험요소에 대한 대비가 미흡한 것이 사실이며 국내에서는 여전히 딥페이크의 심각성에 대한 사회적 인식이나 기술적 준비가 부족한 상황이다. 특히 한국에서는 이미 다양한 형식의 가짜뉴스로 인한 피해사례가 보고되고 있는 만큼 2020년 국회의원 선거를 앞두고 앞서서 대응에 나설 필요도 있을 것으로 보인다. 

국회입법조사처 과학방송통신팀 김유향 팀장은 “딥페이크의 가장 큰 위험은 일반국민은 물론 정부도 무엇이 진짜 또는 가짜인지를 식별할 수 없는 상황이 될 수도 있다는 것이다”라며 “국회에도 약 20여건의 허위정보에 대한 법안이 제출돼 있지만 딥페이크에 대한 대응은 부재한 상태다”라고 지적했다. 

이어 “딥페이크는 산업적 잠재력이 큰 기술이지만 기존의 허위정보와는 차원이 다른 위험성을 내포하고 있으므로 입법적 검토와 더불어 정부차원에서도 기업과 연계해 콘텐츠의 서명기능 개발, 변경내용 표시, 사용자 활용 허위동영상 판정도구 배포 등 기술적・정책적 노력도 이뤄져야 할 것”이라고 강조했다.  

저작권자 © 투데이신문 무단전재 및 재배포 금지