識别深度僞造技術的一個簡單方法,就是讓對方用側臉對着鏡頭。圖中的男子用深度僞造技術合成了演員金·凱瑞的臉,但當他用側臉對着鏡頭時,圖像出現了嚴重扭曲。圖片來源:IMAGE COURTESY OF METAPHYSIC下次你在Zoom上打視頻電話的時候,你可以讓對方把手指放在鼻子旁邊,或者讓對方将側臉對着鏡頭保持一分鐘。
這些都是專家推薦的方法,以确保你的聊天對象是真人,而不是用深度僞造(Deepfake)技術生成的假形象。
這種防範措施雖然顯得有些莫名其妙,但是我們本來就生活在一個奇怪的年代。
今年8月,加密貨币交易所币安(Binance)的一名高管表示,曾經有騙子利用深度僞造技術假冒他的形象,用來對數個虛拟币項目實施電信詐騙。币安的溝通總監帕特裡克·希爾曼稱,曾經有詐騙分子在Zoom視頻電話上假冒他的形象。(希爾曼并未提供相關證據證實他的說法,一些專家對此表示懷疑,但網絡安全研究人員表示,這類事件是有可能發生的。)美國聯邦調查局(FBI)在今年7月曾經警告道,有人可能會在網絡求職遭遇時對方使用深度造假技術詐騙。一個月前,歐洲的幾位市長表示,他們也被假冒的烏克蘭總統弗拉基米爾·澤倫斯基騙了。更離譜的是,美國的一家名叫Metaphysic的初創公司開發了一款深度僞造軟件,它在電視真人秀《美國達人秀》(America’s Got Talent)的決賽中,直接在觀衆面前,将幾名歌手的臉無縫切換成了西蒙·考威爾等幾位明星評委的臉,讓所有人驚掉下巴。
深度僞造,是指利用使用人工智能技術,創建極具說服力的虛假圖像和視頻。以前要創假這樣一個虛假形象,需要目标對象的大量照片,還需要很多時間和相當高超的編程和特效技術。即便假期臉被生成出來了,以前的AI模型的響應速度也不夠快,無法實時生成視頻直播級的完美假臉。
然而從币安和《美國達人秀》的例子能夠看出,現在的情況已經不同了,人們在實時視頻傳輸中使用深度僞造技術已經越來越容易了,而且此類軟件現在也是唾手可得,很多還是免費的,用起來也沒有什麼技術門檻。這也為各種各樣的電信詐騙甚至政治謠言提供了可能。
加州大學伯克利分校(University of California at Berkeley)的計算機科學家哈尼·法裡德是視頻分析和認證領域的專家。他感歎道:“我對現在實時深度僞技術造的速度和質量感到驚訝。”他表示,現在至少有三種不同的開源程序可以讓人們制作實時深度造假視頻。
法裡德等專家都擔心深度僞造技術會使電信詐騙發展到一個新高度。“這簡直就像給網絡釣魚詐騙打了興奮劑。”他說。
識别深度造假的小技巧
好在專家表示,目前還是有很多小技巧能夠幫助你拆穿騙子的畫皮。最可靠也最簡單的方法,就是讓對方側過臉去,讓鏡頭捕捉他的完整側臉。深度僞造技術目前還無法保證側面不露破綻,最主要的原因就是很難獲取足夠多的側面照片來訓練AI模型。雖然有一些方法可以通過正面圖像推導出側面形象,但這會大大增加生成圖像過程的複雜性。
另外,深度僞造軟件還利用了人臉上的“錨點”,來将深度僞造的“面具”匹配到人臉上。所以隻需要讓對方轉頭90度,就會導緻一半的錨點不可見,這通常就會導緻圖像扭曲、模糊、變形,非常容易注意到。
位于以色列的本古裡安大學(Ben-Gurion University)進攻性人工智能實驗室(Offensive AI Lab)的負責人伊斯羅爾·米爾斯基還通過試驗發現了很多能夠檢測出深度僞造的方法。比如在視頻通話過程中要求人們随便拿一個東西在臉前劃過,讓某個東西在他面前反彈一下,讓他們整理一下自己的襯衫,摸一下頭發,或者用手遮擋半張臉。以上每一種辦法,都會導緻深度造假軟件無法描繪多出來的物體,或者導緻人臉嚴重失真。對于音頻深度造假,米爾斯基建議你可以要求對方吹口哨,或者換一種口音說話,或者随機挑一首曲子讓對方哼唱。
位于以色列的本古裡安大學進攻性人工智能實驗室的負責人伊斯羅爾·米爾斯基展示了幾種識别實時深度造假的簡易方法。圖片來源:IMAGE COURTESY OF YISROEL MIRSKY
米爾斯基指出:“目前所有現有的深度僞造技術都采用了非常類似的協議。它們雖然接受了大量數據的訓練,但其模式是非常特定的。多數軟件隻能模仿人的正臉,而處理不好側面或者遮擋臉部的物體。”
法裡德也展示了一種檢測深度僞造的方法,那就是用一個簡單的軟件程序,讓對方的電腦屏幕以某種模式閃爍,讓電腦屏幕在對方臉上投射某種模式的光線。深度僞造技術要麼無法将燈光效果展示在模拟圖像中,要麼反應速度太慢。法裡德表示,隻要讓對方使用另一個光源——例如手機的手電筒,從另一角度照亮他們的臉,就可以達到類似的檢測效果。
米爾斯基表示,要真實地模拟某個人做一些不尋常的事情,人工智能軟件就需要看到幾千個某人做這種事情的例子。但收集這麼多的數據是很困難的。即便你成功訓練AI軟件完成了這些有挑戰性的任務——比如拿起一根鉛筆,從臉上劃過,且不露破綻,那麼隻要你要求對方拿另一個東西代替鉛筆(例如一個杯子),那麼AI軟件還是會失敗。而且一般的詐騙分子也不太可能把假臉做到能夠攻克“鉛筆測試”和“側臉測試”的地步。每個不同的任務都會增加AI模型訓練的複雜性。“你希望深度僞造軟件完善的方面是有限的。”米爾斯基說。
深度僞造技術也在日益進步
目前,很少有安全專家建議大家在視頻通話前先驗證身份——就像登陸很多網站要先填驗證碼一樣。不過米爾斯基和法裡德都認為,在一些重要場合,視頻通話前先“驗明正身”是有必要的,比如政治領導人之間的對話,或者有可能導緻高額金額交易的對話。另外我們尤其要警惕一些反常的情形,例如陌生号碼打來的電話,又或者人們的一些反常行為和要求。
法裡德建議,對于一些非常重要的電話,你也可以使用簡單的雙因素認證,比如你能夠同時給對方發條短信,問問他是不是正在跟你視頻通話。
專家強調,深度僞造技術一直在進步,誰也不能保證将來它們會不會突破上面的檢測手段,甚至是以上幾種手段的組合。
正是考慮到了這一點,很多研究人員試圖從另一角度解決深度僞造的問題——例如創建某種數字簽名或者水印,來證明視頻通話的真實性,而不是試圖揭露深度僞造行為。
說到這裡,就不得不提一個名叫“内容來源和真實性聯合計劃”(Coalition for Content Provenance and Authentication,簡稱C2PA)的機構,它是一個緻力于建立數字媒體認證标準的基金會,該基金會得到了微軟(Microsoft)、Adobe、索尼(Sony)和推特(Twitter)等公司的支持。法裡德說:“我認為内容來源和真實性聯合計劃應該重視這個問題,他們已經為視頻錄制建立了規範,将它拓展到實時視頻通話也是一件很自然的事情。”但法裡德同時也承認,實視視頻數據的驗證并非一項簡單的技術挑戰。“我現在還不知道應該怎麼做,但它是一個值得思考的問題。”
最後提醒大家,下次在Zoom軟件上開電話會議的時候,記得帶上一根鉛筆。(财富中文網)
譯者:樸成奎
在财富Plus,網友們對這篇文章發表了許多有深度和思想的觀點。一起來看看吧。也歡迎你加入我們,談談你的想法。今日其他熱議話題:
查看《蘋果年度重磅發布會舉辦,iPhone 14 Pro從外到内“變身”》的精彩觀點
查看《俞敏洪:10年内一定退休》的精彩觀點
,
更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!