麻省理工學院做了一件T侐,穿上就能在AI人臉辨識鏡頭前「消失」

2019.11.07 by
愛范兒 ifanr
愛范兒 ifanr 查看更多文章

愛范兒連接全球創新者及消費者,跨界技術、文化、消費及創新,致力消費科技領域的產業評論、產品報導及社群連接,創造高品質的消費樂趣。

愛范兒
人臉辨識雖然有其方便之處,但也衍生出很多資訊安全及隱私問題,為了解決此問題,麻省理工學院製作了能混淆AI相機的T侐。

前幾天中國迎來了「人臉辨識第一案」,浙江理工大學一位教授因不滿杭州野生動物世界強制要求年卡用戶註冊人臉辨識,因此將動物園告上法庭。

隨著人臉辨識技術的普及,事實上在生活中,我們很多時候都不知道自己的臉什麼時候正在被辨識。儘管美國舊金山等城市已經推出了人臉辨識的禁令,但在更多國家和城市,相關的法律政策還沒跟上。

愛范兒

對於可能無處不在的人臉檢測系統,我們除了呼籲完善監管還能做些什麼?最近西北大學和麻省理工學院的沃森人工智慧實驗室(MIT-IBM Watson AI Lab)開發出一種印有特殊圖案的T恤,只要穿上就能躲過AI系統的監控,讓一個大活人在監控鏡頭前「消失」。

這是怎麼做到的?其實原理並不複雜,研究人員使用一種稱為對抗性機器學習的方法來欺騙AI,因為電腦視覺辨識系統一般依賴大量數據訓練在提高辨識的準確率,透過同樣的方法也能找出能夠欺騙系統的圖案。

愛范兒

早在2014年,Google和紐約大學的一項研究就已經證明,物體和人臉辨識的算法容易受到以對抗性學習為基礎的攻擊。今年4月份比利時魯汶大學(KU Leuven)的研究人員就透過這個原理,用一張貼紙成功欺騙了AI系統。

愛范兒

但這種欺騙AI系統的方式有一個缺陷,只要圖案的角度和形狀發生變化,就會輕易被識破。因為過去一般都是用硬紙板、停車牌或玻璃款等硬物來做載體。

這次麻省理工研發的T恤的突破在於,即便衣服上的圖案追隨著人的姿勢變化而變形,一樣能欺騙AI系統。

研究人員指出,對抗性機器學習經常被用於欺騙電腦視覺系統,但還難以根據在隨著運動而變形的衣服上建模,因此他們採用了一種叫做「薄板樣條線(TPS)」的數據插值和平滑技術,該模型可對具有重複射(保留點、直線、平面)和非仿射分量的坐標進行轉換並建模。

愛范兒

簡單來說,這項技術讓柔性物體也能模擬剛性物體的對抗性學習,從而欺騙AI。

從圖片中可以看到,這種T恤上印有黑白棋盤格子式樣的圖案,在系統辨識時每個格子之間會出現紅色的小點,這就是成薄板樣條線(TPS)轉換的控制點。

愛范兒

研究人員分別在現實和虛擬環境中測試這種T恤,準確率分別能達63%和79%。不過如果在同一畫面上出現兩個或者更多穿著這種T恤的人,成功率則會降低。

愛范兒

同時這種方式一樣有局限性,只能騙過特定的辨識算法,對於Amazon Web Services,Google Cloud Platform和Microsoft Azure等辨識系統並不使用。但研究人員表示這只是「邁向對抗性可穿戴設備的第一步」,為針對AI的對抗性干擾提供一些啟發。

當人臉辨識等AI演算法與人類的矛盾日漸凸顯,未來這種欺騙AI的需求可能會越來越多,甚至成為一種新的職業。

責任編輯:江可萱、蕭閔云
本文授權轉載自:愛范兒

延伸閱讀

每日精選科技圈重要消息