讓蒙娜麗莎在畫框中活起來!AI技術「Deepfake」再進化,只要一張照片就能偽造影片

2019.05.28 by
極客公園
CNET
當別人從你的社交網站上抓取一張照片,他能做些什麼?

P出各種表情?加上有趣搞笑的濾鏡?現在透過AI技術,只要一張照片就能做出一段惟妙惟肖的假影片,這件事已經不再只是科幻。

自俄羅斯三星實驗室的研究員新開發的一項AI技術,這種技術甚至能讓蒙娜麗莎開口說話,就像下面影片中這樣:

通常,要做出以假亂真的deepfake影片需要大量數據支援。比如早前我們曾經介紹過利用深度學習技術,有人為色情演員加上了好萊塢明星的臉,蓋爾.加朵、艾瑪.華森被「移花接木」到了色情影片當中。

這樣的換臉技術本身是透過機器學習來對大量素材訓練,透過生成式對抗網路(GAN)將目標對象替換成自己需要的對像圖像,甚至如果數據資料夠多,它還能將圖像、聲音等完全偽造。但如今,新的deepfake技術不再需要大量數據,甚至一張普通照片就能偽造一段影片。

研究人員先是從YouTube上蒐集的7,000多張名人照片進行進行臉部特徵提取,包括臉型、眼睛、嘴型等特徵點,通過這些特徵點進行的訓練去比對拍攝的照片,並讓這些拍攝的照片動態頭部模型,通過一系列卷積運算讓比對效果不斷提升,最終在進行前期大量學習訓練之後,新的神經網路只需要少量數據和就能生成新的人臉訊息甚至是影片。

聽起來有些複雜,但實際效果卻是肉眼可見的明顯,不僅僅是《蒙娜麗莎的微笑》中角色可以開口出現表情動作,就連愛因斯坦、達利等也都可以從靜態照片中活靈活現地出現在你的眼前。

當然,和大多數deepfake生成的影片相似的問題是,這些影片仍有瑕疵並不完美,但隨著數據訓練越來越多,這樣的問題將會被改善。

強大的AI技術,也伴隨犯罪的高風險

研究人員表示,這項研究可以運用在娛樂領域,比如像《哈利波特》電影中那樣讓靜態肖像畫活動起來。但這毫無疑問也為人們帶來了一些擔心,既然一張照片就能偽造成一段影音,那麼未來這樣的技術是否會對我們產生危險?

關於這一點,達特茅斯學院媒體取證專家Hany Farid就談到:「deepfake這樣的技術在如今的趨勢下,需要的相關數據越來越少,將會導致未來創造內容真假難辨。」這一點也是讓人所擔心的,也許犯罪分子會通過這樣的技術來進行犯罪。

不過三星的研究人員目前希望這樣的技術能夠實現更大突破,並且有機會被應用於電子遊戲、電影、電視等領域,對於特效行業來說,這樣的技術會降低不少成本。而隨著反作弊技術的進步,對於這些偽造影片的判斷將會更加精準,現階段觀察並討論它的適用範圍是我們更該做的事情。

本文授權轉載自:極客公園

延伸閱讀

每日精選科技圈重要消息