以保密為文化傳統的蘋果一貫不喜歡對外公佈自己的研究成果。但不久前在機器學習的頂級大會NIPS上,蘋果AI團隊的負責人Russ Salakhutdinov宣佈,公司已經允許自己的AI研發人員對外公佈論文成果。這則消息剛剛宣佈沒多久,蘋果就發表了自己的第一篇論文,題目叫做《透過對抗訓練從類比與無監督圖像中學習》,論文描述了如何利用電腦生成的圖像而不是真實圖像改進演算法識別圖像能力的訓練。此舉一方面可以提高蘋果在AI界的存在感,同時如果其研究成果出色的話,也能在學術界贏得同行認可,並吸引到AI方面的人才。
在機器學習研究方面,訓練AI的圖像識別能力需要有標籤化的圖像作為訓練樣本。標籤化圖像的來源一般有兩種。一種是利用現實世界的圖像。真實世界的圖像資料則需要人工對電腦能看到的所有東西——比如樹木、貓狗、人、汽車等都打上標籤,顯然這是件非常耗時耗力的事情。用來訓練AI識別圖像的標籤圖像資料庫ImageNet就是耗費了大量人力用數年時間才建成的。另一種是利用合成圖像(比如影音遊戲裡面的圖像)。因為合成圖像本身已經標籤化並且經過注釋,所以訓練神經網路往往要比利用真實世界的圖像更有效。但合成圖像有一個問題,那就是演算法學到的東西並不能總是適用於現實世界場景,導致神經網路從合成圖像學到的東西很難通用到真實圖像上面。
為了改進利用合成圖像資料訓練的效果,蘋果的研究人員採用了「模擬+無監督(simulated+unsupervised)」的學習法來提升類比圖像對現實的模擬程度。他們利用了名為生成對抗網路的一個新版本,讓兩個神經網路相互對抗,最後產生照片級的圖像。
論文作者包括Ashish Shrivastava、Tomas Pfister以及 Josh Susskind等。其中 Susskind是Emotient的聯合創始人,這家AI新創企業可透過面部表情評估人的情緒,今年早些時候已經被蘋果收購。
正如開頭所述,蘋果的第一篇AI論文標誌著這家看重保密的公司邁出的一大步。在開源和開放成為主流的今天,隨著各大巨頭都在紛紛開放自己的機器學習技術來吸引人才、打造生態體系,蘋果過去的文化顯然已經不能跟上整體的步伐,及時作出改變是可喜的調整。
本文授權轉載自:36氪