前段時間,一個叫做“将朱茵的黃蓉換成楊幂的臉”的熱門話題在微博上爆火。原以為又是一波P圖熱潮引發的粉絲狂歡,沒想到小智在浏覽具體内容之後發現:這次換臉的形式不是圖片,而是視頻——
一位B站UP主用AI技術,将楊幂的臉“貼”在了朱茵飾演的黃蓉臉上。
說實話,看到視頻和gif的小智真的被驚到了。
一方面,大幂幂的顔 朱茵的演技,這真的是神仙搭配呀!
另一方面,不同于傳統觀念裡惡搞視頻的“五毛特效”,這次的特效視頻根本看不出P圖痕迹,真實得宛如原作。
這到底是什麼神奇操作?又運用了什麼樣的智能技術?小智立刻展開了調查。
Deepfake技術原來,這種神奇的換臉效果使用的是一種叫做Deepfake的人工智能技術。
什麼是Deepfake?
Deepfake一詞由“Deep learning”(深度學習)和“Fake”(假)組成,其含義是在圖像或視頻中把一個人的臉替換成另一個人的臉。這項技術的出現可以說是人臉交換技術的一個重要突破。
Deepfake中文網站
幾年前的Deepfake技術并沒有像現在這樣廣泛的獲取渠道,技術門檻也比較高。後來,有人推出了Windows程序FakeApp,即使是對人工智能或是對視頻剪輯一竅不通的外行,隻需要一個GPU和一些訓練數據,再通過按部就班的操作也能制作出換臉視頻。
同時,Deepfake在GitHub 上也已經開源,這一系列的變化都大大降低了Deepfake的獲取門檻。
技術原理
從技術角度而言,Deepfake是深度圖像生成模型的一次成功應用。
在模型訓練期間,先把目标人物A的臉摳出來,定位好A的五官位置,訓練出一個“無論怎麼扭曲和變化A的臉,最後都能生成正常的A臉”的網絡。
五官定位示意圖
網絡訓練好後,我們再向其中輸入B的臉。此時,在神經網絡的邏輯看來,B的臉就是“以某種方式扭曲的A的臉”,需要它來進行“糾正”。并且數據越多,效果越好。
操作流程
在FakeApp上的具體的操作大體分為3個步驟:原始數據集獲取,模型訓練,視頻生成。
首先,我們需要一個包含Nvidia GPU的個人電腦,至少4GB的存儲空間。至于訓練神經網絡所需的材料,用戶則需要提供至少幾百張照片或者時長足夠的視頻,以便FakeApp從視頻中提取所有幀。然後調整合适的參數,就可以開始訓練了。
圖片或視頻上傳操作
在訓練過程中,FakeApp會顯示一個分數,數值越大則表示訓練結果的偏差越大。當這個值低于0.02時效果通常就OK了,此時可以停止訓練程序。這一過程需要的總時長從十幾到幾十小時不等。
最後選擇上面訓練好的模型和需要的換臉視頻,再設置合适的幀率,就可以得到一段自制Deepfake視頻。
關鍵機制
其實AI換臉也不算是新鮮事,不過早期的換臉效果确實差強人意。
你看得出換上的是誰的臉嗎?
那使用Deepfake生成的人臉為何如此逼真?
這很大程度上歸功于一種叫做GAN(生成式對抗網絡)的關鍵機制。
在GAN中有兩個機器學習模型,一個扮演“造假者”,在數據集上訓練後生成假視頻;另一個則扮演“檢測者”,不斷地檢測這些假視頻,一直到它再也不能檢測出結果是假的。
此外,用于訓練的數據集越大,做出的Deepfake視頻越真實。這也是為什麼我們看到的Deepfake視頻中出現的人物幾乎都是著名的政客和明星——他們有太多的公開視頻素材可供訓練了。
尼古拉斯·凱奇:作品太多怪我咯?
全網熱議AI換臉的話題引發了衆多網友的熱議。吃瓜群衆們表示,這下“P圖寶貝”們可以名正言順地換臉,假裝自己在演戲了。
還有群衆表示,“最強狗仔”卓偉就要失業了,以後明星的八卦視頻都可以直接甩鍋給“惡意換臉”,再也不用承認了。
對于影視從業者來說,這也是個好消息。因為以現在的技術,一些大型數字特效公司想要将一位演員的面容“移植”到另一個身體上,至少需要幾個月的時間。特效公司工業光魔的首席運營官約翰·諾爾表示,如果這項技術能達到令人滿意的視覺效果,同時能大幅度提高制作效率、節省成本,那他們會很樂于嘗試。
《速度與激情7》中使用特效“複活”了保羅·沃克
當然,也有不少網友對這一技術表示了擔憂
同樣感到擔憂的還有政界人物。美國總統大選佛羅裡達州候選人盧比奧曾表示:過去想要威脅美國,可能需要航母、核武器,還有洲際導彈。現在隻需要登錄互聯網系統、銀行系統、電網,甚至隻要弄出一段足以以假亂真的虛假視頻搞亂選舉,就足以讓美國陷入内亂。
莫慌,造假有破綻這些擔憂不無道理。
你永遠不知道最厲害的技術會落到什麼人的手裡,況且這還是已經開源了的技術。
為了防範Deepfake背後的社會安全隐患,紐約大學的研究人員研究後發現:在Deepfake生成的虛假視頻中,人物的頭部動作和瞳孔顔色通常會很怪異,并且幾乎不怎麼眨眼。這成了目前Deepfake無法逃脫的bug。
觀察原視頻和造假視頻對應的關鍵幀,可以看出,假臉人物在原視頻的眨眼處并沒有眨眼
據了解,這一bug并非來自算法本身的問題,而是它使用的數據集。
當訓練深層神經網絡時,我們使用的是來自網絡的靜态圖像。即便是像尼古拉斯·凱奇這樣的公衆人物,他的大多數照片也都是睜着眼睛的,一般很少有人會有大量的閉眼照。既然數據集中幾乎沒有眨眼圖像,那麼Deepfake就無法“學會眨眼”,或者眨眼的時長和頻率都遠小于正常人。
這樣的進展,可以算是“魔高一尺,道高一丈”了。
科技時代,“技術造假”和“技術打假”必會進行曠日持久的戰争。在鼓勵研究人員找出“打假”方法的同時,小智覺得,我們還需要呼籲停止濫用技術以及傳播相應的惡性作品。
畢竟,科技的發展不僅需要頂尖科學家們的努力攻克,還需要芸芸大衆的共同維護。
編輯:Sue
圖片來源于網絡,版權歸原作者所有,如有侵權請聯系删除
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!