美國登月失敗影片流出?原來是 MIT 要世人防範 Deepfake 的造假影片

27

轉載從: Tech News 科技新報

美國登月失敗影片流出?原來是 MIT 要世人防範 Deepfake 的造假影片

麻省理工學院(MIT)研究人員利用先進 AI 人工智慧重寫人類最大成就之一:如果阿波羅 11 號登月失敗了怎麼辦? 

MIT 先進虛擬技術中心(Center for Advanced Virtuality)團隊使用美國太空總署(NASA)存檔舊影像,製作了名為《一旦發生登月災難》(In Event of Moon Disaster)短片,展示任務以悲劇告終的另類大事年表。整支短片的最高潮就是深度造假(Deepfake)尼克森(Richard Nixon,因水門案而下台的美國前總統)宣讀備用演講稿(除正式講稿外,另有因應任務失敗的備用稿)的令人毛骨悚然卻讓人信服的畫面,背景還有那個時代映像管(CRT)電視特有的模糊影像和尖銳嘶嘶聲。

MIT 團隊花 3 個月製作,但未來 Deepfake 技術會變得十分容易

Deepfake 是指使用 AI 模型模擬人臉與聲音的可操控逼真影片,可逼真假造一個人說了從未說過的話。這支短片是某互動網站 20 日的重頭戲,當天是美國登月 51 週年紀念日,包括此專案的幕後花絮,以及討探有關 Deepfake 技術實作和後果的文章。早在去年秋天,這支短片便在電影節和某次巡迴展覽播放過,但 20 日發表的數位版是整支影片在網路首次公開。

製片人先拍攝一位演員朗讀應急演講的畫面,然後再將他的臉部動作和尼克森辭職時舊影片比對,選定這支影像片段為目標,因為影片有他們想要的「適當嚴肅且憂鬱的音調」。透過獨立 AI 模型,將演員的聲音轉換成尼克森的聲音。AI 模型訓練了數百個來自尼克森總統在越南演講的樣本。

Deepfake 的影響著實令人擔憂,但要製作出令人信服的成品並不容易。MIT 團隊花了 3 個月製作此短片。儘管如此,這種技術仍不斷進步,隨著時間推移,Deepfake 技術只會愈來愈容易達成。

「透過這次 Deepfake 假造影片,我們希望展示技術已多麼先進,並協助眾人防範更複雜的 Deepfake 技術,因無疑會在不久的未來大行其道。」專案官網表示:「如果體驗過我們影片的人,後來回憶起可信度,並更謹慎小心看待 Facebook 不時彈出的影片,我們就成功了。」

MIT 團隊與《科學美國人》(Scientific American)期刊共同製作了半小時紀錄片,也在 20 日發表。如果你想測試一下自己發現 Deepfake 的能力,MIT 媒體實驗室(MIT Media Lab)今年稍早也公開了名為「檢測贗品」(Detect Fakes)專案,有興趣的使用者不妨前往瀏覽。

(首圖來源:影片截圖)

延伸閱讀: