Google先前曾推出了引發熱潮的「Quick, Draw!」,除了讓大家知道自己畫的圖有多醜,醜到AI都認不出來之外,也替Google的圖像識別 AI 類神經網路提供了超多識別素材。隨著上傳塗鴉的人越來越多,將讓Google的圖像識別AI越發準確。
而Google AI在近日推出了「Emoji Scavenger Hunt」(表情符號尋寶遊戲),這次不用畫畫,而是要去找出真實世界中的「表情符號」,而Google搜集的目的是什麼?
真實版支援前線,透過Emoji找尋物品
遊玩前需要先打開手機或是電腦的鏡頭,在倒數過後Google AI會給你一張表情符號貼圖,有可能是「手錶」、「筆」、「鍵盤」、「鬧鐘」、「香蕉」等,接著你就必須在真實世界中找出這些物品,鏡頭後的Google AI會開始進行辨識。
跟「Quick, Draw!」同樣的是,在你尋找的過程中,Google AI 會不斷嘗試猜測,所以在你找到正確物品前,Google 小姐會不間斷的出聲煩你。
而 Google AI 團隊也在 Github 上公布了原始碼,甚至貼心地教導大家如何建立出自己的模型。最近各種資安事件搞得人心惶惶,Google也不忘宣布本次實驗的資料並不會被儲存下來加以利用。
Google 搜集素材背後2大目的
本次 Google 要大家用「鏡頭」協助搜集素材,除了玩起來一樣笑意滿點之外,跟過去「識別圖畫」相較起來有什麼值得注意之處呢?可以由兩個方面下手思考:
真實物品的圖像識別極具「商轉價值」
「Quick, Draw!」主要是識別使用者的「手繪圖形」,實驗性質較高(網友的參與程度、AI模型的建立),在搜集了大量數據後,儘管能加快識別速度,但未來應用的想像空間較小。
而真實物品的圖像識別就不一樣了,不只能運用於多種場景,就工研院產業分析師發布的「辨識技術應用趨勢探討」中提到,辨識後所得到的資訊具有發展成商業價值的產品或服務的潛力。
目前能夠應用的產業有安防(Surveillance)與汽車產業為主要的應用載具,常見的應用情境還包含:航空圖像、監控系統、車用識別系統等。
在身邊的鏡頭只會更多不會更少的未來,「實體圖像識別」的商轉潛力相當大。所以你如果對於識別技術有所想法,也可以直接使用Google提供的程式碼與教學,打造自己的識別模型。(不過有相關的授權問題,請詳閱公開說明書)
也許 Google Glass 將變得更強?
除此之外,雖然 Google 的 AI 相機應用 Google Lens 可以無痛升級此技術,但是另一個你可能遺忘的產品:曾死過一次的產品,Google Glass 也可能將變得更強。
雖然在 2017 年調整目標策略,轉向面對企業用戶,推出企業版 Google Glass Enterprise Edition(EE)後, Google Glass 浴火重生,大眾汽車、通用航空、快遞服務DHL都是其使用者。
應用場景從日常生活中跳到工作場域,工作者在 Google Glass 的協助下進行機械組裝、記錄工作內容、獲取貨物資訊等,而Google也因應這些需求,加強產品的電池續航力、防汗與折疊等特性。也因為 Google Glass 對於工作者的協助與效率上的提升,根據 Forrester研究報告預測,到了2025年,光美國就約有1,440萬名勞工配戴智慧眼鏡進行工作。
若能提供更準確的實體識別技術,將有效提高Google Glass的協助程度,除了提升企業版本的能力之外,如果Google Glass仍有走進人類日常生活的夢想,識別技術只會更加分。
不過這一切的前提是,需要搜集到足夠的資訊量才行,所以趕快到上面的連結玩玩看,為大家的未來貢獻一點識別資料給 Google 吧!
參考資料:The Team at X、Forrester、經濟部技術處。