5년 전만 해도 인공 지능의 도움을 받아 만든 설득력 있어 보이지만 가짜 비디오 및 오디오 파일인 딥페이크(deepfake)에 대해 들어본 사람은 아무도 없었습니다. 지금, 그들은 전쟁 과정에 영향을 미치기 위해 사용되고 있습니다. 지난주에 퍼진 가짜 젤레스키 영상 외에도 블라디미르 푸틴 러시아 대통령이 우크라이나 전쟁에서 평화를 선언하는 모습을 묘사한 또 다른 딥페이크 영상이 널리 유포되었습니다.
Zelensky나 Putin의 최근 동영상 중 어느 것도 TikTok Tom Cruise의 높은 제작 가치에 근접하지 않았습니다(결함을 숨기기 위한 일반적인 전술인 눈에 띄게 저해상도였습니다.). 전문가들은 여전히 그것들을 위험하다고 보고 있습니다. 첨단 허위 정보가 이제 전 세계로 퍼질 수 있는 빛의 속도를 보여주기 때문입니다. 점점 보편화되면서 딥페이크 비디오는 온라인에서 허구와 사실을 구별하기 어렵게 만들고, 온라인에서 벌어지고 잘못된 정보로 가득 찬 전쟁 중에는 더욱 그렇습니다. 나쁜 딥페이크도 물을 더 더럽힐 위험이 있습니다.
“일단 이 선이 무너지면 진실 자체는 존재하지 않을 것”이라고 남가주 대학의 연구 부교수이자 이 학교의 Visual Intelligence and Multimedia Analytics Laboratory의 창립 이사인 Wael Abd-Almageed가 말했습니다. “만약 당신이 무언가를 보고 더 이상 믿을 수 없다면, 모든 것이 거짓이 됩니다. 모든 것이 사실이 될 것 같지는 않습니다. 단지 우리가 모든 것과 모든 것에 대한 자신감을 잃게 될 것입니다.”
전쟁 중 딥페이크
University at Albany의 컴퓨터 비전 및 머신 러닝 연구소 소장인 Siwei Lyu는 이것이 “아직 기술이 없었기” 때문이라고 생각합니다. 좋은 딥페이크를 만드는 것은 쉬운 일이 아니었습니다. 비디오가 변조되었다는 명백한 징후(예: 사람 얼굴 프레임 주변의 이상하게 보이는 시각적 흔들림)를 매끄럽게 만들고 비디오 속 사람처럼 들리게 만들어야 합니다. 비디오는 그들이 말하는 것처럼 보였습니다(실제 목소리의 AI 버전 또는 설득력 있는 성우를 통해).
이제 더 나은 딥페이크를 만드는 것이 더 쉽지만 더 중요한 것은 사용 환경이 다르다는 것입니다. 전문가들은 그들이 뿌린 혼란이 위험할 수 있기 때문에 전쟁 중 사람들에게 영향을 미치려는 시도에 현재 사용된다는 사실이 특히 해롭다고 CNN 비즈니스에 말했습니다.
일반적인 상황에서 딥페이크는 관심을 끌고 온라인에서 주목을 받는 것 외에는 큰 영향을 미치지 않을 수 있다고 Lyu는 말했습니다. “하지만 중대한 상황에서, 전쟁이나 국가 재난 중에 사람들이 정말로 합리적으로 생각할 수 없고 주의를 기울이는 시간이 매우 짧고 이와 같은 것을 볼 때 그것이 문제가 되는 때입니다.” 그는 덧붙였다.
“당신은 하나의 비디오에 대해 이야기하고 있습니다.”라고 그녀는 말했습니다. 더 큰 문제가 남아 있습니다.
“인간의 눈을 능가하는 것은 없다”
딥페이크가 개선됨에 따라 연구원과 회사는 이를 탐지하는 도구를 따라잡기 위해 노력하고 있습니다.
그러나 딥페이크가 개선됨에 따라 더 까다로워지는 것과 같은 자동 감지 문제가 있습니다. 예를 들어, 2018년에 Lyu는 비디오 속 사람이 깜박거리는 방식의 불일치를 추적하여 딥페이크 비디오를 식별하는 방법을 개발했습니다. 한 달도 채 되지 않아 누군가가 사실적인 깜박임으로 딥페이크를 생성했습니다.
“우리는 이것을 더 많이 보게 될 것이며 Google, Facebook, Twitter와 같은 플랫폼 회사에 의존하는 것만으로는 충분하지 않을 것입니다.”라고 그는 말했습니다. “인간의 눈을 능가하는 것은 없습니다.”