- +1
擔(dān)心被AI換臉技術(shù)禍害?Deepfake打假隊(duì)正在趕來
本文原標(biāo)題:《擔(dān)心被AI換臉技術(shù)禍害?別怕!Deepfake打假隊(duì)正在趕來》
文章轉(zhuǎn)載自公眾號(hào)硅星人 , 作者 CJ


B站用戶讓蔡徐坤頂著六小齡童的面孔在偶像練習(xí)生C位出道。
民間技術(shù)流已經(jīng)能對著AI換臉教程玩的不亦樂乎。
但每個(gè)人也更容易成為受害者:
偽造綁架視頻勒索詐騙,不雅視頻毀壞名譽(yù),或者恐怖視頻制造混亂,都因?yàn)镈eepfake的開源技術(shù)變得空前容易。

在PS摧毀了公眾對圖片的信任后,Deepfake正在摧毀公眾對視頻的信任。
沒有人想在互聯(lián)網(wǎng)上看到自己的面孔說著自己沒說過的話。
許多針對個(gè)人的傷害,也因?yàn)橛绊懖粔蚓薮蠖对V無門。
美國正在形成一支Deepfake打假隊(duì)伍,不僅是高校實(shí)驗(yàn)室、研究中心在尋找Deepfake的破綻,一股創(chuàng)業(yè)潮流也正在興起。
但這是一場造假AI與鑒假AI之間“你有張良計(jì),我有過墻梯”的競賽。
每一篇檢測Deepfake的論文,仿佛都能提示造假技術(shù)修補(bǔ)自身漏洞,從而更上一層樓。
關(guān)上Deepfake的潘多拉魔盒,他們能做到嗎?
用打假Deepfake創(chuàng)業(yè)
Shiva Kintali離開擔(dān)任講師4年的普林斯頓計(jì)算機(jī)系,正在硅谷創(chuàng)業(yè)鑒別偽造視頻。
他告訴硅星人,他的合作對象有警察、記者、保險(xiǎn)公司等,通過機(jī)器學(xué)習(xí)尋找偽造視頻的破綻,用區(qū)塊鏈記錄信息等技術(shù)來輔助鑒別。
Kintali的網(wǎng)站已經(jīng)可以上傳圖像、音頻、視頻,來分析檢測是否有修改痕跡。
他同時(shí)在開發(fā)一個(gè)手機(jī)相機(jī)應(yīng)用,用人工智能為圖像添加時(shí)間、地點(diǎn)水印,并將圖片原始信息印在區(qū)塊鏈上。
一旦傳播圖像的信息與原始圖片不符,就容易判斷真?zhèn)巍?/p>
這些產(chǎn)品希望幫助記者、媒體公司、政治競選團(tuán)體、執(zhí)法機(jī)構(gòu)(例如FBI、NSA),保險(xiǎn)公司(面臨虛假事故照片的保險(xiǎn)索賠問題)和大公司(例如Facebook、Twitter、Redditt、PornHub),在其平臺(tái)上阻止虛假的視頻、音頻、照片傳播。
由于Deepfake降低了視頻造假的門檻。
面對真?zhèn)坞y辨的影像資料,記者不知道能否發(fā)布,保險(xiǎn)公司不知是應(yīng)該理賠還是報(bào)警詐騙,警察收集證據(jù)后,也需要專業(yè)工具去鑒定圖片和視頻的真?zhèn)巍?/p>
目前流傳的假視頻大多是“淺度造假”,但因?yàn)閿?shù)量多,造成了無數(shù)困擾。
斯坦福的研究人員向鑒別公司了解到困擾他們的三大問題:
數(shù)量太多,可用鑒別時(shí)間太短,缺乏標(biāo)準(zhǔn)化的工具。
因此,研究者們在尋找能夠大規(guī)模應(yīng)用的打假方法。
Facebook、Twitter等社交網(wǎng)絡(luò)上爆炸式傳播的圖片和影像,給辟謠留下的時(shí)間窗口越來越短。
普通大眾也不可能雇傭?qū)I(yè)人士進(jìn)行鑒別。
搶先商用化的圖像驗(yàn)證平臺(tái)Truepic已經(jīng)上線了一款智能相機(jī)應(yīng)用。
用戶拍下的圖像將上傳至服務(wù)器,在創(chuàng)建時(shí)對照片和視頻進(jìn)行身份驗(yàn)證,獲得唯一編碼。
相機(jī)應(yīng)用捕獲設(shè)備的傳感器數(shù)據(jù),在傳輸之前加密照片或視頻,運(yùn)行20多個(gè)圖像取證測試,并在幾秒鐘內(nèi),將圖像的加密簽名印在公共區(qū)塊鏈上,使得信息不可被篡改。
這是一種“自證清白”的方式,適用于電子商務(wù)平臺(tái)和公民記者類用戶。
如果用戶將圖片發(fā)送給接收者,Truepic允許收件人驗(yàn)證圖像的原點(diǎn)和元數(shù)據(jù)的完整性。
任何二次傳播的多媒體材料,都可以與區(qū)塊鏈上的原始信息對比,辨別真假。
在Deepfake的威脅下,鑒定圖片、視頻的真實(shí)性,都成了相機(jī)應(yīng)用的賣點(diǎn)。
但這類以營利為目的的產(chǎn)品又引起了用戶新的隱私擔(dān)憂。
畢竟,誰能確保Truepic不作惡呢?
算法打算法
位于硅谷的SRI International AI中心則“以毒攻毒”,用偽造的視頻訓(xùn)練算法,讓算法能夠更好識(shí)別出偽造痕跡。
在人們上傳視頻到社交網(wǎng)站的時(shí)候,平臺(tái)需要對視頻重新編碼。
這是一個(gè)檢測虛假視頻的好時(shí)機(jī)。
但隨著Deepfake的漏洞日漸優(yōu)化,用算法打算法的難度也日益加大。
打假AI原本就是訓(xùn)練造假AI的一部分,二者剛好在生成對抗性網(wǎng)絡(luò)的兩端。
一個(gè)生成器,一個(gè)鑒別器,道高一尺,魔高一丈。
由于Deepfake的技術(shù)在于篡改數(shù)據(jù),那么鑒別方則在尋找一切篡改數(shù)據(jù)的痕跡。
一種方法是基于像素的視頻檢測,視頻其實(shí)是成千上萬幀圖片連放,細(xì)致到檢測每個(gè)像素的改變痕跡,是一件頗為浩大工程。
此外,偽造的面部表情目前仍有缺陷。
偽造的臉部表情往往與其他部分存在不一致,計(jì)算機(jī)算法可以檢測圖片或視頻中的這種不一致。

舉例而言,初代Deepfake視頻中的人物,眨眼的方式都有點(diǎn)奇怪。
紐約州立大學(xué)奧爾巴尼分校計(jì)算機(jī)科學(xué)副教授Siwei Lyu曾撰文表示,成年人的眨眼間隔為2秒到10秒,一次眨眼需要十分之一到十分之四秒。
這是正常視頻人物應(yīng)有的眨眼頻率,但很多Deepfake視頻的人物沒能做到這一點(diǎn)。
彼時(shí)由于缺乏閉眼圖像數(shù)據(jù),算法的訓(xùn)練并不完美,視頻人物面孔總有一種“哪里不對”的不和諧感。
然而,通過閉眼的面部圖像、或使用視頻序列進(jìn)行訓(xùn)練,可以改善眨眼間隔。
虛假視頻的質(zhì)量總會(huì)提高,而研究人員需要繼續(xù)尋找檢測它們漏洞的方法。
南加大的研究者Wael Abd-Almageed表示,社交網(wǎng)絡(luò)可以使用算法來大規(guī)模識(shí)別Deepfake。
為了實(shí)現(xiàn)這一過程的自動(dòng)化,研究人員首先建立了一個(gè)神經(jīng)網(wǎng)絡(luò),“學(xué)習(xí)”人類在說話時(shí)如何移動(dòng)的重要特征。
然后,研究人員使用這些參數(shù)將偽造視頻的堆疊幀輸入AI模型,以檢測隨時(shí)間的不一致性。
普渡大學(xué)的研究人員也采用了類似的方法,他們認(rèn)為,隨著訓(xùn)練模型的Deepfake視頻數(shù)據(jù)量越來越大,模型也會(huì)更加精確,更容易檢測出偽造的視頻。
美國2020年大選在即,如何阻止Deepfake從低俗娛樂發(fā)展到操縱民意,是研究者們最迫切的動(dòng)力之一。
但愿一鍵打假的速度,能追上一鍵換臉的速度。
轉(zhuǎn)載聲明:本文授權(quán)轉(zhuǎn)載自「硅星人」,搜索「guixingren123」即可關(guān)注。作者:CJ丨封面圖來源:pixabay
本文為澎湃號(hào)作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場,澎湃新聞僅提供信息發(fā)布平臺(tái)。申請澎湃號(hào)請用電腦訪問http://renzheng.thepaper.cn。





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司