Home세계Deepfakes는 정보 전쟁을 그 어느 때보 다 첨단 기술과 걱정거리로 만들고 있습니다.

Deepfakes는 정보 전쟁을 그 어느 때보 다 첨단 기술과 걱정거리로 만들고 있습니다.

그는 우크라이나어로 “무기를 내려놓고 가족들에게 돌아가길 바란다”고 말했다. 이 클립은 딥페이크로 빠르게 식별되었습니다. “이 전쟁은 죽을 가치가 없습니다. 당신이 계속 살 것을 제안합니다. 저도 그렇게 할 것입니다.”

5년 전만 해도 인공 지능의 도움을 받아 만든 설득력 있어 보이지만 가짜 비디오 및 오디오 파일인 딥페이크(deepfake)에 대해 들어본 사람은 아무도 없었습니다. 지금, 그들은 전쟁 과정에 영향을 미치기 위해 사용되고 있습니다. 지난주에 퍼진 가짜 젤레스키 영상 외에도 블라디미르 푸틴 러시아 대통령이 우크라이나 전쟁에서 평화를 선언하는 모습을 묘사한 또 다른 딥페이크 영상이 널리 유포되었습니다.

허위 정보 전문가 콘텐츠 인증은 특히 점점 더 사실적으로 보이면서 딥페이크를 통해 거짓말과 혼돈을 퍼뜨릴 가능성에 대해 수년간 우려해 왔습니다. 일반적으로 딥페이크는 비교적 짧은 기간에 엄청나게 개선되었습니다. 예를 들어 작년에 데이브 매튜스 밴드의 노래를 커버하고 동전 던지기를 하는 가짜 톰 크루즈의 바이럴 비디오는 딥페이크가 어떻게 사실처럼 보일 수 있는지 보여주었습니다.

Zelensky나 Putin의 최근 동영상 중 어느 것도 TikTok Tom Cruise의 높은 제작 가치에 근접하지 않았습니다(결함을 숨기기 위한 일반적인 전술인 눈에 띄게 저해상도였습니다.). 전문가들은 여전히 ​​그것들을 위험하다고 보고 있습니다. 첨단 허위 정보가 이제 전 세계로 퍼질 수 있는 빛의 속도를 보여주기 때문입니다. 점점 보편화되면서 딥페이크 비디오는 온라인에서 허구와 사실을 구별하기 어렵게 만들고, 온라인에서 벌어지고 잘못된 정보로 가득 찬 전쟁 중에는 더욱 그렇습니다. 나쁜 딥페이크도 물을 더 더럽힐 위험이 있습니다.

“일단 이 선이 무너지면 진실 자체는 존재하지 않을 것”이라고 남가주 대학의 연구 부교수이자 이 학교의 Visual Intelligence and Multimedia Analytics Laboratory의 창립 이사인 Wael Abd-Almageed가 말했습니다. “만약 당신이 무언가를 보고 더 이상 믿을 수 없다면, 모든 것이 거짓이 됩니다. 모든 것이 사실이 될 것 같지는 않습니다. 단지 우리가 모든 것과 모든 것에 대한 자신감을 잃게 될 것입니다.”

전쟁 중 딥페이크

2019년에는 당시 미국 국가정보국장이었던 Dan Coats의 경고를 포함하여 딥페이크가 2020년 미국 대선에 영향을 미칠 것이라는 우려가 있었습니다. 하지만 그것은 일어나지 않았다.

University at Albany의 컴퓨터 비전 및 머신 러닝 연구소 소장인 Siwei Lyu는 이것이 “아직 기술이 없었기” 때문이라고 생각합니다. 좋은 딥페이크를 만드는 것은 쉬운 일이 아니었습니다. 비디오가 변조되었다는 명백한 징후(예: 사람 얼굴 프레임 주변의 이상하게 보이는 시각적 흔들림)를 매끄럽게 만들고 비디오 속 사람처럼 들리게 만들어야 합니다. 비디오는 그들이 말하는 것처럼 보였습니다(실제 목소리의 AI 버전 또는 설득력 있는 성우를 통해).

이제 더 나은 딥페이크를 만드는 것이 더 쉽지만 더 중요한 것은 사용 환경이 다르다는 것입니다. 전문가들은 그들이 뿌린 혼란이 위험할 수 있기 때문에 전쟁 중 사람들에게 영향을 미치려는 시도에 현재 사용된다는 사실이 특히 해롭다고 CNN 비즈니스에 말했습니다.

일반적인 상황에서 딥페이크는 관심을 끌고 온라인에서 주목을 받는 것 외에는 큰 영향을 미치지 않을 수 있다고 Lyu는 말했습니다. “하지만 중대한 상황에서, 전쟁이나 국가 재난 중에 사람들이 정말로 합리적으로 생각할 수 없고 주의를 기울이는 시간이 매우 짧고 이와 같은 것을 볼 때 그것이 문제가 되는 때입니다.” 그는 덧붙였다.

일반적으로 잘못된 정보를 없애는 것은 우크라이나 전쟁 중에 더욱 복잡해졌습니다. 러시아의 러시아 침공은 트위터, 페이스북, 인스타그램, 틱톡과 같은 소셜 플랫폼을 강타하는 실시간 정보의 홍수를 동반했다. 대부분은 사실이지만 일부는 가짜이거나 오해의 소지가 있습니다. 공유되는 내용의 시각적 특성은 얼마나 감정적이고 본능적인지와 함께 무엇이 진짜인지 가짜인지 빠르게 구별하는 것을 어렵게 만들 수 있습니다.
니나 쉬크, “Deepfakes: The Coming Infocalypse”의 저자는 Zelensky와 Putin과 같은 딥페이크를 소셜 미디어 회사가 해결하기에 충분하지 않은 온라인상의 훨씬 더 큰 허위 정보 문제의 징후로 보고 있습니다. 그녀는 페이스북과 같은 기업의 반응이 빨리 말했다 그것은 Zelensky 비디오를 제거했으며 종종 “무화과 잎”입니다.

“당신은 하나의 비디오에 대해 이야기하고 있습니다.”라고 그녀는 말했습니다. 더 큰 문제가 남아 있습니다.

“인간의 눈을 능가하는 것은 없다”

딥페이크가 개선됨에 따라 연구원과 회사는 이를 탐지하는 도구를 따라잡기 위해 노력하고 있습니다.

Abd-Almageed와 Lyu는 알고리즘을 사용하여 딥페이크를 감지합니다. 류의 솔루션인 DeepFake-o-meter는 누구나 동영상을 업로드하여 진위 여부를 확인할 수 있지만 결과를 얻는 데 몇 시간이 걸릴 수 있다고 언급했습니다. 그리고 사이버 보안 소프트웨어 제공업체인 Zemana와 같은 일부 회사는 자체 소프트웨어도 개발하고 있습니다.

그러나 딥페이크가 개선됨에 따라 더 까다로워지는 것과 같은 자동 감지 문제가 있습니다. 예를 들어, 2018년에 Lyu는 비디오 속 사람이 깜박거리는 방식의 불일치를 추적하여 딥페이크 비디오를 식별하는 방법을 개발했습니다. 한 달도 채 되지 않아 누군가가 사실적인 깜박임으로 딥페이크를 생성했습니다.

Lyu는 사람들이 궁극적으로 소프트웨어보다 이러한 비디오를 중지하는 데 더 나을 것이라고 믿습니다. 그는 결국 일종의 딥페이크 현상금 사냥꾼 프로그램이 등장하는 것을 보고 싶어(그리고 돕는 데 관심이 있습니다), 사람들이 온라인에서 뿌리 뽑기 위해 돈을 받는 곳입니다. (미국에서는 선거 후 60일 이내에 정치 후보자의 기만적인 비디오 또는 오디오를 배포하는 것을 금지하는 2019년 캘리포니아 법이 통과된 것과 같이 이 문제를 해결하기 위한 일부 법률도 있었습니다.)

“우리는 이것을 더 많이 보게 될 것이며 Google, Facebook, Twitter와 같은 플랫폼 회사에 의존하는 것만으로는 충분하지 않을 것입니다.”라고 그는 말했습니다. “인간의 눈을 능가하는 것은 없습니다.”


최신 기사

더 탐색