導(dǎo)讀:用人工智能制作的假視頻片段也可以被人工智能發(fā)現(xiàn)。近日,美國國防部運行的一個項目開發(fā)出了第一個通過 AI 技術(shù)捕捉色情和假新聞的取證工具。
用人工智能制作的假視頻片段也可以被人工智能發(fā)現(xiàn)。近日,美國國防部運行的一個項目開發(fā)出了第一個通過 AI 技術(shù)捕捉色情和假新聞的取證工具。
近幾年,隨著 AI 技術(shù)的發(fā)展,其在造假上的應(yīng)用也引起了政府方面的注意。法庭有關(guān)專家正急于找到能檢測出 AI 合成視頻的方法,因為機(jī)器學(xué)習(xí)技術(shù)可以很容易地制作出以假亂真的虛假視頻,這些視頻可能被用來散布虛假信息或騷擾他人。
圖丨在這個視頻中,尼古拉斯凱奇的臉被套到了特朗普臉上
制作虛假視頻最常見的手段是用機(jī)器學(xué)習(xí)技術(shù)把一個人的臉換到另一個人身上,由此產(chǎn)生的視頻被稱為“deepfakes”。這種視頻制作簡單,而且非常逼真。如果由一個熟練的視頻編輯進(jìn)一步的調(diào)整,可以使視頻看起來更加真實。
視頻造假中使用的一種機(jī)器學(xué)習(xí)技術(shù),即生成建模,讓計算機(jī)從真實數(shù)據(jù)中學(xué)習(xí),然后生成統(tǒng)計上相似的假數(shù)據(jù)。最近的一個技術(shù)突破是生成式對抗網(wǎng)絡(luò),這種技術(shù)可以基于兩個神經(jīng)網(wǎng)絡(luò)來實現(xiàn)更逼真的造假。
此次捕捉 deepfakes 的工具源于 DARPA (美國國防高級研究計劃局 ) 負(fù)責(zé)的名為“媒體取證”項目。該項目原本是為了自動化現(xiàn)有的取證工具,但最近將注意力轉(zhuǎn)向了人工智能造假。
“我們在目前由 GAN 生成的圖像和視頻中發(fā)現(xiàn)了一些微妙的線索,讓我們能夠檢測到造假的存在,”媒體取證項目的負(fù)責(zé)人 Matthew Turek 說。
其中,一種非常簡單的技術(shù)是由紐約州立大學(xué)奧爾巴尼分校教授 Siwei Lyu 和他的一名學(xué)生領(lǐng)導(dǎo)的團(tuán)隊開發(fā)出來的?!拔覀冎谱髁舜蠹s 50 個假視頻,并嘗試了一些傳統(tǒng)的取證方法,但這些方法并不總是奏效。”研究人員介紹說。
但某一天下午,Lyu 在研究幾個假視頻時發(fā)現(xiàn),用 deepfakes 制作的人臉很少眨眼,甚至根本不會眨眼。當(dāng)他們眨眼的時候,眼睛的運動是不自然的。這是因為 deepfakes 是在靜止圖像上訓(xùn)練的,這些圖像往往顯示一個人睜著眼睛的圖像。
其他參與 DARPA 挑戰(zhàn)的人也在探索類似的自動捕捉 deepfakes 的技巧,奇怪的頭部運動、奇怪的眼睛顏色等等。達(dá)特茅斯大學(xué)的數(shù)字取證專家 Hany Farid 表示:“我們正致力于利用這些生理信號進(jìn)行造假識別,至少就目前而言,這些生理信號很難被 deepfakes 模仿。”
DARPA 的 Turek 說,DARPA 將舉辦更多的競賽,“以確保開發(fā)中的工具能夠檢測到最新的造假技術(shù)?!?/p>
這些取證工具的出現(xiàn)標(biāo)志著視頻偽造者和數(shù)字偵探之間的 AI 技術(shù)競賽開始。Farid 說,一個關(guān)鍵的問題是機(jī)器學(xué)習(xí)系統(tǒng)可以被訓(xùn)練得比取證工具更靈活。
Lyu 表示,熟練的偽造者只要收集一個人眨眼的圖像,就可以繞過他的眨眼工具。但他補(bǔ)充說,他的團(tuán)隊已經(jīng)開發(fā)出了一種更有效的技術(shù),該技術(shù)目前暫時保密。Lyu 說:“我們現(xiàn)在比偽造者有一點優(yōu)勢,我們希望保持這一優(yōu)勢?!?/p>