相機(jī)應(yīng)用變得越來(lái)越復(fù)雜。用戶(hù)可以拉長(zhǎng)腿部,去除臉上的粉刺,加上動(dòng)物耳朵等等?,F(xiàn)在,有些人甚至可以制作出看起來(lái)非常逼真的虛假視頻。用來(lái)創(chuàng)造這類(lèi)數(shù)字內(nèi)容的技術(shù)已經(jīng)“飛入尋常百姓家”,被稱(chēng)為“深度造假”。
美國(guó)消費(fèi)者新聞與商業(yè)頻道網(wǎng)站(CNBC)在近日的報(bào)道中指出,隨著技術(shù)的不斷進(jìn)步,“李鬼變李逵”!“深度造假”的危害日益加劇,正帶來(lái)一系列具有挑戰(zhàn)性的政策、技術(shù)和法律問(wèn)題。
深度學(xué)習(xí)+造假=深度造假
“深度造假”是指經(jīng)過(guò)處理的視頻,或者通過(guò)尖端的人工智能技術(shù)生成的其他數(shù)字內(nèi)容,它們會(huì)產(chǎn)生看似真實(shí)的虛假圖像和聲音。
“深度造假”這個(gè)詞結(jié)合了“深度學(xué)習(xí)”和“造假”,是一種人工智能形式。深度學(xué)習(xí)是人工智能的一個(gè)子集,指的是能夠?qū)W習(xí)和自行做決定的一些算法。
美國(guó)紐約大學(xué)法學(xué)兼職教授保羅·巴雷特說(shuō),簡(jiǎn)單來(lái)講,“深度造假”就是借助深度學(xué)習(xí)手段制作的虛假視頻。深度學(xué)習(xí)系統(tǒng)可以從多個(gè)角度研究目標(biāo)人物的照片和視頻,然后模仿其行為和說(shuō)話模式,從而制造出具有說(shuō)服力的虛假內(nèi)容。
巴雷特解釋說(shuō):“一旦制造出了初步的假象,就可以通過(guò)名為‘生成式對(duì)抗網(wǎng)絡(luò)’(GAN)的方法讓它看起來(lái)更加可信。GAN可發(fā)現(xiàn)偽造過(guò)程中的瑕疵,從而改進(jìn)這些瑕疵。經(jīng)過(guò)多輪檢查和改進(jìn)后,‘深度造假’視頻就完成了。”
在公共政策機(jī)構(gòu)布魯金斯學(xué)會(huì)下設(shè)的技術(shù)革新中心從事治理研究的非常駐高級(jí)研究員、加利福尼亞大學(xué)洛杉磯分校電子工程系教授約翰·維拉塞納認(rèn)為,從技術(shù)的角度來(lái)說(shuō),任何人只要擁有電腦并且能夠上網(wǎng),就可以制造“深度造假”的內(nèi)容。
“李鬼變李逵”
智庫(kù)新美國(guó)(New America)關(guān)注網(wǎng)絡(luò)安全與防御的戰(zhàn)略家、高級(jí)研究員彼得·辛格指出,“深度造假”的危險(xiǎn)在于,這種技術(shù)可以讓人相信原本并不真實(shí)存在的東西是真實(shí)的。
辛格不是唯一一個(gè)提醒“深度造假”所帶來(lái)的危險(xiǎn)的人。
維拉塞納也表示,這類(lèi)視頻“變得越來(lái)越復(fù)雜、越來(lái)越容易制作,‘深度造假’正帶來(lái)一系列具有挑戰(zhàn)性的政策、技術(shù)和法律問(wèn)題”。這項(xiàng)技術(shù)“可以讓政治候選人看上去像是說(shuō)了或做了什么從未真正說(shuō)過(guò)的話或做過(guò)的事,以此來(lái)破壞他們的聲譽(yù)”。
麻省理工學(xué)院的一項(xiàng)技術(shù)報(bào)告指出,可以進(jìn)行“深度造假”的設(shè)備可能成為“偽造虛假新聞?wù)叩睦硐胛淦鳎麄兿M绊憦墓善眱r(jià)格到選舉的一切”。
CNBC網(wǎng)站在其報(bào)道中稱(chēng),“深度造假”將成為“2020年美國(guó)總統(tǒng)選舉中的大事件”。就像2016年的“虛假新聞”一樣,“深度造假”視頻將在2020年的美國(guó)大選中,掀起更強(qiáng)大的血雨腥風(fēng)。當(dāng)然,為了未雨綢繆,包括加州和德州在內(nèi)的不少州都已經(jīng)制定法律,當(dāng)這些“深度造假”視頻用于2020年的選舉中時(shí),將被認(rèn)為不合法。
《麻省理工學(xué)院技術(shù)評(píng)論》雜志舊金山分支機(jī)構(gòu)負(fù)責(zé)人馬丁·賈爾斯在一份報(bào)告中寫(xiě)道,事實(shí)上,“人工智能工具已被用于把其他人的面部照片安在色情明星身上,讓其他人說(shuō)的話從政客們的口中說(shuō)出。”他說(shuō),這個(gè)問(wèn)題并非由GAN制造,但GAN會(huì)讓問(wèn)題變得更糟糕。
成也蕭何敗也蕭何
正所謂成也蕭何敗也蕭何!維拉塞納今年2月份曾撰文指出,雖然人工智能可以用來(lái)生成“深度造假”視頻,但也可以用來(lái)檢測(cè)它們。由于任何計(jì)算機(jī)用戶(hù)都可以使用該技術(shù),越來(lái)越多的研究人員將注意力集中在“深度造假”視頻的檢測(cè)上,并且正在殫精竭慮地尋求管控這些“深度造假”視頻的方法。
臉書(shū)和微軟等大公司已經(jīng)采取行動(dòng),旨在發(fā)現(xiàn)并刪除“深度造假”視頻。據(jù)路透社報(bào)道,這兩家公司于今年早些時(shí)候宣布,他們將與美國(guó)頂級(jí)大學(xué)合作,建立一個(gè)龐大的假視頻數(shù)據(jù)庫(kù),以進(jìn)行深入的分析研究。
辛格指出,普通用戶(hù)也可以用自己的雙眼來(lái)觀測(cè)并檢查出“深度造假”視頻。他說(shuō):“目前,如果你近距離觀察,會(huì)出現(xiàn)一些輕微的突兀之處,比如耳朵或眼睛不匹配、臉部輪廓模糊、皮膚太光滑等等。”
但是他也強(qiáng)調(diào),隨著“深度造假”技術(shù)日益精進(jìn),視頻會(huì)看起來(lái)越來(lái)越真實(shí),人們要分辨也變得越來(lái)越困難。
維拉塞納也提醒人們,在技術(shù)不斷發(fā)展演進(jìn)的同時(shí),用來(lái)發(fā)現(xiàn)造假的檢測(cè)技術(shù)“往往落后于最先進(jìn)的生成造假的手法”。因此,更值得深思的一個(gè)問(wèn)題是:人們更有可能相信“深度造假”視頻,還是將這類(lèi)視頻作為“深度造假”的檢測(cè)算法?
已有0人發(fā)表了評(píng)論