中文字幕欧美乱伦|手机AV永久免费|澳门堵场日韩精品|日本性爱欧美激情|蜜桃狠狠狠狠狠狠狠狠狠|成人免费视频 国|欧美国产麻豆婷婷|99久久久国产精品福利姬喷水|婷婷内射精品视频|日本欧洲一区二区

澎湃Logo
下載客戶端

登錄

  • +1

“換臉”真相:“深度偽造”的網(wǎng)絡(luò)狂歡和安全威脅

央視新聞
2019-09-09 06:29
科學(xué)湃 >
字號

近期,一款名為ZAO的人工智能換臉APP在國內(nèi)推出。用戶只需上傳一張正面照,就可以一鍵操作,把一些影視劇片段中演員的臉換成自己的,立刻生成視頻,還可通過社交媒體傳播,仿佛瞬間圓了明星夢。

這一款換臉APP很快就成了爆款,頗受歡迎,但也很快引起有關(guān)部門的注意,就在上周,工信部就網(wǎng)絡(luò)數(shù)據(jù)安全問題約談了相關(guān)公司。

與此同時(shí),“換臉” 軟件所依托的的一項(xiàng)AI技術(shù),也引起了人們的關(guān)注,它被稱為:DeepFake, 深度偽造。

外國媒體報(bào)道:我們不能相信網(wǎng)上的所有東西,沒錯(cuò),深度偽造,深度偽造,深度偽造!是的,這到底是什么?深度偽造技術(shù)是利用人工智能合成以假亂真的視頻,這是一種高科技手段,可以把某些話塞進(jìn)某人嘴里。

Deepfake(深度偽造),“Deep learning”(深度學(xué)習(xí))和“Fake”(偽造)結(jié)合而成的新單詞。

簡單來說,這是一種可以實(shí)時(shí)偽造面部表情,并將其渲染成2D合成視頻的人工智能技術(shù)。

早在一年多前, 2017年12月,一個(gè)名為“DeepFakes”的用戶在Reddit網(wǎng)站發(fā)布“假視頻”,將成人色情電影中演員的臉替換成了斯嘉麗·約翰遜等知名女演員的臉,畫面以假亂真。這為人工智能換臉技術(shù)吸引來了一大波流量,“DeepFake”深度偽造,也逐漸成為這一技術(shù)的代稱,同名算法也在Github開源,這是一個(gè)面向開源及私有軟件項(xiàng)目的托管平臺(tái)。

網(wǎng)絡(luò)視頻打假專家沃德爾博士:你好,今天我要和你討論一項(xiàng)影響名人的新技術(shù)。(記得)奧巴馬說特朗普是笨蛋,或者卡戴珊的說唱“因?yàn)槲铱偸前肼銌帷??深度偽造!深度偽造!深度偽造!這也是深度偽造,我也不是阿黛爾,我是(打擊)網(wǎng)絡(luò)偽造的專家。深度偽造用來形容人工智能技術(shù)合成的視頻或音頻文件。它起初就是一種非?;镜拿娌扛鼡Q,現(xiàn)在還成了電影特技。有了這樣的爆款技術(shù),天啊,我們不能相信任何東西了。沒錯(cuò),深度偽造就是可怕的反烏托邦。它們只會(huì)變得更容易,制作成本也更低廉。

李浩是美國南加州大學(xué)的助理教授,“針幕動(dòng)畫”公司的聯(lián)合創(chuàng)始人,這家公司推出的軟件可以讓用戶在玩虛擬現(xiàn)實(shí)游戲和購物時(shí),即時(shí)定制自己的三維虛擬化身。

“針幕動(dòng)畫”聯(lián)合創(chuàng)始人李浩:現(xiàn)在我制作了一個(gè)你的化身。

美國公共廣播公司記者奧布萊恩:一個(gè)和藹整潔的奧布萊恩。

這種戲法可以用在任何人身上,當(dāng)然也包括政界要人。

美國公共廣播公司記者奧布萊恩:現(xiàn)在我成了我們的總統(tǒng)(特朗普),日本首相安倍晉三。

“針幕動(dòng)畫”聯(lián)合創(chuàng)始人李浩:當(dāng)然,這個(gè)技術(shù)可以用來做一些真的很壞的事情。但主要目的絕不是如此,它被用于娛樂,一個(gè)有趣的工具,用于時(shí)尚、生活方式各方面,帶給我們更多體驗(yàn)。

但隨著技術(shù)的發(fā)展,這樣的合成圖像或視頻,真實(shí)度越來越強(qiáng),欺騙性也越來越強(qiáng)。對此,研發(fā)者也不無擔(dān)憂。

“針幕動(dòng)畫”聯(lián)合創(chuàng)始人李浩:我們都假設(shè)會(huì)有一個(gè)臨界點(diǎn),屆時(shí)將無法區(qū)分真假。我的意思是,從視覺效果上說,我覺得你已經(jīng)可以做到非常接近了,只是取決于你花多少努力在上面。但就任何人都可以創(chuàng)建的內(nèi)容而言,我認(rèn)為已經(jīng)非常接近這個(gè)臨界點(diǎn)了。

2018年1月,一個(gè)名為FakeApp的軟件上線,宣稱可以實(shí)現(xiàn)“一鍵換臉”??缮傻囊曨l內(nèi)容包括惡搞美國總統(tǒng)特朗普,或是將自己的臉貼到好萊塢明星身上。

雖然有的社交新聞?wù)军c(diǎn)比如Reddit網(wǎng)站,已明令禁止在自己的平臺(tái)傳播換臉視頻和圖片,但仍有超過9萬名用戶在Reddit上傳播這類視頻。

計(jì)算機(jī)科學(xué)專家法里德:我擔(dān)心這項(xiàng)技術(shù)被武器化,還擔(dān)心它如何影響我們整個(gè)社會(huì)。

深度偽造不僅可以換臉,還可偽造聲音。

據(jù)《華爾街日報(bào)》報(bào)道,今年3月,有犯罪分子利用“深度偽造”技術(shù),電腦合成某公司CEO的聲音,成功詐騙22萬歐元。

電腦合成聲音真的這么難以識破嗎?

2018年,三名蒙特利爾大學(xué)的博士聯(lián)合創(chuàng)辦了一家名為“琴鳥”(Lyrebird)的公司。該公司開發(fā)出了一種“語音合成”技術(shù),只要對目標(biāo)人物的聲音進(jìn)行1分鐘以上的錄音,把錄音丟給“琴鳥”處理,就能得到一個(gè)特別的密鑰,利用這個(gè)密鑰可以用目標(biāo)人物的聲音,生成任何想說的話。

“琴鳥”創(chuàng)始人:你需要錄自己幾分鐘的聲音。

彭博社記者 萬斯:上千個(gè)字母在業(yè)余作家的屏幕上跳動(dòng),當(dāng)你開始像這樣吃東西時(shí),就會(huì)有問題,你們最好退出政治圈,別干了。我不知道它怎么工作的,現(xiàn)在創(chuàng)建我的數(shù)字聲音。創(chuàng)建你的數(shù)字聲音至少需要一分鐘,一分鐘,我的天啊。

語音錄制完后,“琴鳥”會(huì)自動(dòng)運(yùn)轉(zhuǎn)合成出你的數(shù)字聲音。

這時(shí),只需要向電腦輸入想說的話,就可以用新合成的你的聲音說出來。

記者萬斯的數(shù)字合成聲音:人工智能技術(shù)似乎發(fā)展非???,我們該感到害怕嗎。

彭博社記者萬斯:我的確聽到了,真的很有意思。我只是隨便挑了,我從沒說過的話。

而且,“琴鳥”還能在合成聲音中加入“感情”元素,讓聲音聽上去更逼真。

彭博社記者萬斯:現(xiàn)在為了實(shí)驗(yàn)一下我的電腦合成音,我要給我親愛的媽媽打個(gè)電話,看看她是否能聽出來。嗨,媽媽,你們今天什么安排。

萬斯的母親:今天一早家里沒電了,我們正在房子里溜達(dá)。

萬斯:我剛剛下班,等著接兒子回家。

萬斯的母親:好的。

萬斯:我覺得我可能感染了病毒。

萬斯的母親:那你感覺不舒服,是嗎?

萬斯:哈哈,我剛才是和你搗亂,你剛才在和電腦說話。

萬斯的母親:我感覺在和你說話,真是奇妙。

萬斯:你覺得嚇人還是覺得不錯(cuò)。

萬斯的母親:如果涉及到非常重要的事情,真的挺嚇人的。不過現(xiàn)在是你了,對嗎?

萬斯:我不知道。

萬斯的母親:聽上去是你。

萬斯:是嗎?

萬斯的母親:是,是,聽上去就是你。

彭博社記者萬斯:很明顯,有些人被這項(xiàng)技術(shù)嚇壞了。因?yàn)槲覀円呀?jīng)讓現(xiàn)實(shí)真相變得模糊不清。

“琴鳥”創(chuàng)始人:當(dāng)然,的確存在有人利用這項(xiàng)技術(shù)做壞事的風(fēng)險(xiǎn)。但是,科技不可能停止發(fā)展,所以我們決定選擇符合道德的做法,將技術(shù)展示給人們,讓人們知道這項(xiàng)技術(shù)的可行性,讓他們提高警惕。

網(wǎng)絡(luò)安全公司Pindrop在2018年五月對美英德法四國共500家企業(yè)展開網(wǎng)上調(diào)查,結(jié)果顯示,從2013年到2017年,語音欺詐案件的數(shù)量增加了350%,每638個(gè)欺詐電話中就有1個(gè)是人工合成聲音。

瑞士蘇黎世大學(xué)研究員烏德里什:長久以來,人類的聲音是(造假者)最大的挑戰(zhàn),因?yàn)槊糠N聲音都極其復(fù)雜且獨(dú)一無二,它們幾乎不可能被偽造。但在最近幾年,(科技)取得了巨大進(jìn)步,視頻素材和偽造聲音的結(jié)合造成了巨大的威脅。

的確,有了成熟的聲音造假技術(shù),再配上偽造圖像,做出一條以假亂真、別有用心的視頻真的不難了。

“深度偽造”假視頻:特朗普總統(tǒng)是個(gè)徹底的笨蛋,你看我永遠(yuǎn)不會(huì)說這些話,至少在公共演講中(不會(huì)),但其他人會(huì)說,比如喬丹·皮爾。這是一個(gè)危險(xiǎn)的時(shí)代,以后我們要對我們所信任的互聯(lián)網(wǎng)更加警惕。在這個(gè)時(shí)代我們需要可信的新聞來源,聽起來很簡單,但我們該如何發(fā)展,信息時(shí)代將決定我們是生存,還是成為某種糟糕的反烏托邦。謝謝。

這段視頻看上去是美國前總統(tǒng)奧巴馬在發(fā)表演講,實(shí)際上卻是喜劇演員和電影制作人皮爾的表演,聲音和畫面都是通過軟件合成的。

計(jì)算機(jī)科學(xué)專家法里德:人工智能系統(tǒng)合成了奧巴馬的嘴,使其與音頻流保持一致,讓視頻看起來像是奧巴馬總統(tǒng)在說他之前從未說過的話。這叫作唇同步深度偽造。

技術(shù)本無善惡,深度偽造可以被運(yùn)用于趣味視頻、游戲以及廣告合作中,但惡意運(yùn)用也會(huì)帶來嚴(yán)重后果。它可能會(huì)摧毀我們對現(xiàn)實(shí)的認(rèn)知,使人們不敢再相信視頻、錄像。

美國卡內(nèi)基國際和平基金會(huì)也警告稱,深度偽造正在帶來破壞性的影響,也會(huì)對反恐和國家安全造成危害。

計(jì)算機(jī)科學(xué)專家法里德:噩夢般的情況是,出來一段特朗普總統(tǒng)的視頻,他在視頻里說,我對朝鮮發(fā)射了核武器。有人黑進(jìn)了他的推特賬號,這條消息被瘋狂傳播,短短30秒,全球核戰(zhàn)爆發(fā)。我覺得這可能嗎?不,但并非完全不可能,而且會(huì)把你嚇得半死,對嗎?但這并非不可能的事實(shí),真的令人擔(dān)憂。

從“深度學(xué)習(xí)”到“深度偽造”,照片、聲音、視頻都可輕松造假,而識別深度偽造則要比制作深度偽造難得多。

當(dāng)“眼見未必為實(shí),耳聽未必為真”,我們又該怎么辦?

扎克伯格“深度偽造”假視頻:這都要?dú)w咎于Spectre漏洞,它告訴我誰掌控了數(shù)據(jù),誰就掌控了未來。

今年6月,圖片分享網(wǎng)站Instagram出現(xiàn)這樣一段視頻。臉書公司創(chuàng)始人扎克伯格就大數(shù)據(jù)的威力發(fā)表演講。

但很快,扎克伯格就辟謠說,自己從未說過這些話。事實(shí)上,這是以色列一家科技公司利用深度偽造技術(shù)合成而來的。

略顯尷尬的是,臉書曾宣稱,該公司不會(huì)刪除假新聞,但會(huì)減少其在網(wǎng)站上的影響力,并顯示來自事實(shí)核查人員的信息。

而Instagram總裁莫斯里也在接受采訪時(shí)表示,目前業(yè)界還沒有大規(guī)模的數(shù)據(jù)或標(biāo)準(zhǔn)對這些假視頻進(jìn)行檢測。

Instagram總裁莫斯里:目前,我們還沒有應(yīng)對深度偽造的政策,我們正試著評估是否愿意這么做。如果要做,又該如何定義深度偽造。我覺得(此類事件)并不好。

主持人蓋爾·金:你可以限制這種技術(shù),你有影響力。

莫斯里:實(shí)際上,我想的不僅是把它撤下來,我認(rèn)為問題在于,我們?nèi)绾我杂性瓌t的方式做到這一點(diǎn)。

對此,《財(cái)富》雜志呼吁說,現(xiàn)在已經(jīng)到了科技公司、學(xué)術(shù)界和政府共同努力尋找解決方案的時(shí)候了。

6月13號,美國眾議院情報(bào)委員會(huì)召開關(guān)于人工智能深度偽造的聽證會(huì),公開談?wù)摿松疃葌卧旒夹g(shù)給國家、社會(huì)和個(gè)人帶來的風(fēng)險(xiǎn),以及該采取的防范和應(yīng)對措施。

目前,世界多國也都開始進(jìn)行立法,強(qiáng)化對人臉信息收集和識別技術(shù)應(yīng)用場景的約束。但所有努力都離不開社交媒體平臺(tái)的配合。

計(jì)算機(jī)科學(xué)專家法里德:但大多數(shù)情況下,社交媒體平臺(tái)對如何處理這類非法內(nèi)容、有害內(nèi)容、不實(shí)信息、假新聞、選舉篡改、非自愿的色情等內(nèi)容都顯得漫不經(jīng)心,因?yàn)檫@些內(nèi)容吸引眼球,對生意有好處。

近日,臉書、微軟等科技公司和眾多學(xué)術(shù)機(jī)構(gòu)聯(lián)合發(fā)起一場“揪出深度偽造影像挑戰(zhàn)賽”,希望改善現(xiàn)有工具,加強(qiáng)對深度偽造圖片、聲音和視頻的檢測能力。

9月5號,臉書宣布將為此投入1000萬美元。

美國加州大學(xué)伯克利分校的研究人員也在研究如何應(yīng)對深度偽造。

計(jì)算機(jī)科學(xué)專家法里德:我們應(yīng)對這一問題的方式是,建立了軟生物識別模型。這些生物特征指的是像指紋、虹膜、面部。它沒有那么獨(dú)特,但其目的是捕捉微妙的面部表情、頭部移動(dòng),這些每個(gè)個(gè)體獨(dú)有的,但在假視頻制作時(shí)被打亂了的特征。

計(jì)算機(jī)科學(xué)專家 法里德:首先我們會(huì)測量各種頭部移動(dòng)和面部表情,你可以在這個(gè)視頻里,看到我們正在捕捉藍(lán)色盒子,正在捕捉他的頭部在三維空間里如何轉(zhuǎn)動(dòng)。紅點(diǎn)是在定位他的面部表情,實(shí)際上我們可以看到他何時(shí)會(huì)抬起眉毛,何時(shí)會(huì)張大嘴巴。當(dāng)然,他眼睛里的綠色激光會(huì)告訴我們他在看哪里。整個(gè)視頻中的每一幀畫面,我們都會(huì)對他的面部表情、面部動(dòng)作、頭部動(dòng)作做一些測量,之后我們用這些建立軟生物識別模型。

計(jì)算機(jī)科學(xué)專家法里德感嘆稱,制作假視頻的人越來越多,造假技術(shù)發(fā)展非常迅速,而相比之下,打假隊(duì)伍的力量顯得落后而薄弱。

美國五角大樓有一個(gè)研究團(tuán)隊(duì),又稱美國國防高級研究計(jì)劃局,也在一直研究如何抵抗“深度偽造”的威脅。

計(jì)算機(jī)科學(xué)家圖雷克:這讓我們對圖片和錄像都不信任了。

而檢測偽造視頻的軟件,可以描述嘴唇運(yùn)動(dòng),將其與視頻中的聲音進(jìn)行比對。

計(jì)算機(jī)科學(xué)家圖雷克:當(dāng)看到這些紅點(diǎn)時(shí),意味著說話者的聲音實(shí)際上與其嘴唇運(yùn)動(dòng)不一致。

再來看這段視頻,看上去這兩人是坐在一起的,但通過測定他們臉上的光照角度,可以判定這是一個(gè)合成的視頻。

計(jì)算機(jī)科學(xué)家圖雷克:它預(yù)估了一個(gè)人臉3D模型跟這個(gè)模型一起,軟件還估計(jì)了面部反射特征和光照角度。這里,我們主要使用了光照角度來看那些(特征)是否一致。

這是監(jiān)控錄像中的一段畫面,檢測軟件試圖預(yù)測物體的移動(dòng)方向。

計(jì)算機(jī)科學(xué)家 圖雷克:它檢測到了物體運(yùn)動(dòng)的不連續(xù)性,這給我們發(fā)出了信號來仔細(xì)查看圖片或視頻,(推斷出)也許畫面就是從這里被清除的。

檢測發(fā)現(xiàn)這段視頻被動(dòng)過手腳,另一輛車被從畫面中剪切掉了。

計(jì)算機(jī)科學(xué)家圖雷克:這是一個(gè)貓和老鼠的游戲,拆穿假圖片或視頻的層面越多,給造假者形成的壓力也就越大。

兩年前,美國發(fā)布《人工智能與國家安全》報(bào)告,明確將人工智能偽造技術(shù)列為威脅國家安全的重點(diǎn)技術(shù)。

作為人工智能發(fā)展大國,中國也已經(jīng)在加強(qiáng)政策和技術(shù)方面的監(jiān)管,應(yīng)對人工智能新技術(shù)可能帶來的安全風(fēng)險(xiǎn)。

畢竟,當(dāng)聲音、指紋、人臉等重要的生物識別信息都開始出現(xiàn)“高仿”時(shí),風(fēng)險(xiǎn)和隱患也將越來越多。

(原題為《“換臉”真相 “深度偽造”的網(wǎng)絡(luò)狂歡和安全威脅》)

    責(zé)任編輯:王建亮
    澎湃新聞報(bào)料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2025 上海東方報(bào)業(yè)有限公司

            反饋