走在全面人工智慧化的道路上——Google I/O 2017
專題故事

一年一度的Google開發者大會在度於5月17-19日於加州山景城舉行,自從去年首度喊出「AI First」(人工智慧優先)後,Google將人工智慧部署到越來越多的產品,今年更是一口氣推出更多由AI驅動的產品與服務。

1 定義未來的搜尋方式,Google在開發者大會推出新產品「Google Lens」

截自Google I/O影片
Google AI新產品「Google Lens」,透過圖像辨識結合網上搜尋資訊,使用手機相機就能獲得圖像相關資訊;Google Photos也獲得更新,自動辨識人像,讓用戶更方便與他人分享圖片。

Google一年一度開發大會Google I/O前日在美國盛大展開,照往例,Google揭曉了許多產品更新功能,包含Google Photos、Google Assistant、Google Home等,這些更新都可以看出Google現在的主要技術焦點:人工智慧、機器學習。(文末有本次Google I/O 2017 Keynote影片。)

Google將機器學習技術應用到越來越多旗下產品與服務。
截自Google I/O影片

讓相機成為未來的搜尋媒介:Google Lens

Google的影像識別技術,在錯誤率上已經比人類還低。
截自Google I/O影片

這次大會上,被認為最具未來性的一個新產品之一稱作「Google Lens」,透過人工智慧、電腦圖像辨識等技術,讓用戶透過自己行動裝置的相機,就能進行搜尋,讓圖像取代關鍵字搜尋。

這次大會上,最具未來性的一個新產品之一就是「Google Lens」,透過人工智慧、電腦圖像辨識等技術,讓圖像取代關鍵字搜尋。
截自Google I/O影片

當用戶在真實世界拍張照時,舉例來說,路上的一間餐廳,Google Lens不僅能夠辨識它是一間餐廳,還能提供餐廳名字、營業時間,甚至菜單內容、訂位資訊等搜尋結果。

Google

就像Snapchat與Instagram的擴增實境功能一樣,Google希望用戶只要透過相機鏡頭看這個世界,就能獲得更多相關資訊。Pinterest今年初也才推出類似功能,讓用戶拍一張照,就能圖片中的產品資訊與購買地點或連結。

Google Lens將會先進駐Google Photos,讓用戶透過自己帳號裡的照片來進行搜尋,接著是Google Assistant,來接觸新拍的影像檔案,以及幫助用戶進行搜尋。未來,Google預計把Google Lens技術,帶到所有Google產品上。

Google Photos分享照片更容易

除了Google Lens外,Google Photos也推出另外三項新功能,來幫助用戶透過照片分享生活。

Google

首先是建議分享,你有沒有這樣的經驗?三五好友一起出去玩,約好上傳出遊照片,卻總是有人忘記要把照片分享給大家?Google Photos現在會「自動」幫你選出最棒的一批照片、挑出好友頭像,並且發送通知詢問用戶是否要分享這些照片給他們;另外,用戶也可以選擇分享整個相片庫給親密家人或好友,或者只選擇分享含有特定人物的相片,舉例來說,父母之間就可以這樣,分享彼此為孩子拍的照片。

最後,Google還推出實體印刷相片本,Google Photos會自動選出幾張好照片,並推薦用戶是否要印刷成相片本,20頁的相片本一般包裝為9.99美元,而精品包裝版則是19.99美元。此服務只先在美國推出,未來也預計在其他國家推出服務。

Google

據Google表示,Google Photos推出至今兩年,每日用戶已經累積超過5億人,每天上傳的備份照片與影片總計為12億。

Google I/O 2017 Keynote 影片

資料來源:GoogleWiredThe Verge

延伸閱讀
5億
據Google表示,Google Photos推出至今兩年,每日用戶已經累積超過5億人,每天上傳的備份照片與影片總計為12億份。

2 Android O宣布多項更新並開放公測、開發者可在Google Play下廣告

Google
Google在開發大會上進一步揭曉下一代Android系統細節、宣布正式釋出公開測試版本,同時也更新過去規矩,開放開發者在Google Play上下廣告。

於3月就釋出開發者預覽版的下一代「Android O」系統,前日在Google I/O大會上,宣布釋出第一版公開測試版本,立即開放下載。

Google

Android O

目前所透露的Android O重要細節功能包含:

  • Notification Dots:新的app通知介面設計,如果app有新的通知,在app icon上會有一個「點」,長按app icon即可顯示通知內容。
  • Picture-in-picture模式:可以把YouTube等App畫面,縮小到螢幕一旁同時觀看。

  • 智慧選字:當選取一行字時,除了複製、貼上等功能以外,Google還能依據文字內容,直接給予快速功能選項,像是新增聯絡人、在Google Maps內查看地點等。

  • Google Play Protect:自動檢查手機上App的安全性,列出可能有安全漏洞的App給用戶知道。 Google宣稱每天要掃描500億個app。

  • Project Treble:手機商不必等待晶片商認證,就能夠釋出最新Android系統更新,如此一來,希望能夠加快用戶端採用最新Android系統的速度。

  • Kotlin:這項宣布恐怕是Google I/O開場演講掌聲最多的宣布之一。Google正式宣布Android將支援Kotlin這個程式語言。

Google

Android O開放Google的Pixel、Pixel XL、Nexus 5P、Nexus 6P等手機下載測試,但離釋出給大眾消費者使用還差幾步,像是正式釋出日期,以及此系統的最終官方名稱。

Google Play開放下廣告

Google

Google前日也同時宣布,開發者除了能夠藉由Google提供的數據工具,了解App表現效能之外,現在也能夠在Google Play的首頁下廣告,提高App曝光度。

Google將透過Universal Ad Campaigns產品,讓開發者在Google Play下欄位廣告,開發者可以進一步選擇對哪些人顯示App廣告,如對In-app花費較高的使用者、下載較多遊戲的使用者等。

Universal Ad Campaigns是Google先前推出的數位廣告產品,讓廣告主在各種Google旗下服務下廣告,包含Google Play Store、Google Search、YouTube、AdMob in-app網路等。

資料來源:TechCrunchBusiness Insider

延伸閱讀
20億
據Google表示,全球目前每月活躍的Android裝置已經超過20億台,含手機、平板、Chromebooks等裝置類別。

3 強化深度學習!Google揭曉第二代TPU、TensorFlow Research Cloud服務

Google
Google在Google I/O 2017再次宣布推出第二代TPU,以及結合1000個Cloud TPU運算叢集構成的TensorFlow Research Cloud服務。

去年在Google I/O 2016宣布藉由客製化TPU (Tensor Processing Unit)處理器加速運算推理效率之後,Google在Google I/O 2017主題演講再次宣布推出第二代TPU,並且將以Cloud TPU形式作為Google Compute Engine全新運算基礎,同時藉由每組Cloud TPU可發揮180TFLOPS運算效能表現,同時提昇深度學習與邏輯推理效率。

此外,針對深度學習研究需求,Google也宣布推出結合1000個Cloud TPU運算叢集構成的TensorFlow Research Cloud服務,將從即日起免費開放申請使用。

mashdigi

相比先前推出的TPU設計主要著重加速邏輯推理效率,主要應用在AlphaGo人工智慧系統,以及包含Google Search、Google Photos、Google翻譯、語音識別與Gmail垃圾信件判斷等項目,此次推出的第二代TPU則進一步著重在同時對應深度學習與邏輯推演兩種需求,藉此擴大TPU的應用範圍與規模,並且改善第一代TPU被人指稱僅能應用在特定邏輯推演領域情況。

根據Google說明,以Cloud TPU形式作為Google Compute Engine全新運算基礎的第二代TPU,每組約可發揮高達180TFLOPS運算效能,因此相比採用32張現行最好的商用GPU構成加速學習模式仍須花費一天左右訓練時間,透過第二代TPU設計僅需體積僅為八分之一大小的單一機架叢集(Pod)以一個下午時間即可完成訓練。

同時,Google也同步宣布推出以1000組Cloud TPU運算叢集構成的TensorFlow Research Cloud服務,並且將以免費形式開放各類深度學習研究申請使用。

Google表示,目前已經廣泛地在Google Cloud雲端平台導入TPU加速運作模式,同時針對Google Compute Engine服務也將藉由增加第二代TPU設計,讓開發人員能針對不同學習目的選擇最佳運算模式。而在強調TPU帶來深度學習加速效率之餘,Google也認為不同的服務設計需求,原本就需要不同硬體架構對應最佳學習效果,因此開發者依然可選擇透過傳統CPU、GPU,例如Intel Skylake架構處理器或NVIDIA Volta架構顯示卡構成合適的訓練模式。

Google

至於針對NVIDIA近期在GTC 2017揭曉採Volta架構的Tesla V100,其硬體架構也加入對應深度學習使用的Tensor Core核心設計,同時對應TensorFlow等學習框架使用,Google認為NVIDIA確實也看見TensorFlow學習框架普及應用的成長,並且認為新架構設計預期將能大幅推動深度學習應用。

不過,可同時對應深度學習與邏輯推演加速應用的第二代TPU推出,是否影響NVIDIA所提倡的GPU加速學習模式?其實還不見得會構成明顯影響,畢竟藉由GPU加速學習模式可對應的使用彈性依然很大,例如需要大規模邏輯判斷與深度學習混合運算,甚至針對自動駕駛車輛等終端應用,透過GPU產生的加速應用仍有其必要性,就像傳統透過大量CPU進行學習的使用模式仍有其最佳優勢,因此主要還是看人工智慧系統使用目的,進而挑選最佳合適的加速模式。

本文授權轉載自:mashdigi

延伸閱讀

4 與Siri搶地盤!Google Assistant宣布推出iOS App進駐iPhone

截自 Google I/O影片
Google Assistant宣佈進駐iPhone,也將推出更多語言支援;同時,內建Google Assistant的Google Home也推出幾項新功能,包含撥打電話、顯示視覺搜尋結果等。

於2016年問世的虛擬助理Google Assistant,於一年後的Google I/O有了一大進展:正式進駐iPhone。

前日開幕的Google I/O 2017上,Google宣佈正式把Google Assistant帶到iPhone上,將以App的形式運作,擁有iOS 9.1以上系統的用戶都能下載使用。它能幫忙的事包含傳送iMessenge,或者從Spotify播放音樂等等。

App Store

但因為Apple在iOS上設下API限制,Google Assistant在iPhone上的功能並無法百分之百與Siri一樣,舉例來說,它無法設定鬧鐘,按下Home鍵也無法叫出Google Assistant。

儘管現在只能與英語用戶對話,但Google Assistant也將支援更多語言。Google表示,今年夏天將會新增對法文、德文、巴西葡萄牙文與日文支援,而在今年年底還會新增義大利文、西班牙文與韓文,但並未透露何時會支援中文。

Google Assistant已經進駐的軟硬體產品包含Google Pixel、Google Home、Google Allo、Android Wear系統以及近期新款Android手機。

Google Home成為家中電話

與Google Assistant同時為去年一大焦點的產品,智慧喇叭Google Home,也迎來一些更新功能,讓它更接近其市場競爭者––亞馬遜的Echo系列產品,後者在上周推出了搭載螢幕、強調可撥打視訊電話的Echo Show

Google

首先,Google Home能夠成為家中電話,只要對著它說「Hey Google, call (電話號碼)」就能撥打電話給對方。用戶可以選擇連接自己的電話號碼,如果沒有設定,收話的那一方則會看到顯示為私人號碼。

並且,Google Home能夠自動傳送提醒訊息,不需要等用戶提問就能提供資訊,包含交通狀況等,主動提醒即將要從家裡出門的使用者。此外,當用戶問Google問題,而答案需要顯示圖像時,Google Home就會把這個圖像顯示到家中電視或手機上,給用戶一個視覺回答。

資料來源:VentureBeat9to5Google

延伸閱讀
1億
據Google表示,目前已經有超過1億台裝置,內建Google Assistant提供服務。

5 YouTube在Google I/O發表兩大新功能:威力加強版Super Chat、360度影片登上電視

截自Google I/O影片
今年的Google I/O開發者大會上,YouTube推出了兩項新功能:直播付費互動功能Super Chat再升級、360度直播搬上電視螢幕。

在今年的Google I/O,YouTube其實也發表了兩項新功能:直播付費互動功能Super Chat再升級、360度直播搬上電視螢幕。

付費和直播現場互動

YouTube的直播付費留言功能Super Chat將新增API,讓觀眾藉由付費留言與直播主有實際互動。
Google影片截圖
使用Super Chat在直播活動中留言,會特別被highlight出來被看見。
google影片截圖

YouTube在今年一月推出的直播付費互動功能Super Chat,現在則可以透過API設定直接和直播主互動。這項功能本來僅止於使用者付費後,在其留言加上綠色底色並置頂,增加留言被直播主及其他使用者注意的機率。在此次Google I/O上,YouTube產品經理Barbara MacDonald解釋,未來直播主透過API設定,就可產生如「關掉直播現場燈光」、「讓直播現場的無人機起飛」等客製化互動,使用者只要經由Super Chat付費,即可和直播現場直接互動。

在此次Google I/O現場,YouTube請來擁有超過920萬粉絲的知名影片部落客The Slo Mo Guys體驗Super Chat功能,以一美金一顆水球的價位,進行慈善募捐。YouTube產品經理MacDonald就以500美金的Super Chat啟動現場的喇叭,以及500顆丟向The Slo Mo Guys的水球。(下方影片1:48:00處)

360度影片登上電視進入客廳

未來360度影片也可以在電視上收看,觀眾可藉由遙控器的調整改變視角。
google影片截圖

此外,YouTube也在此次的Google I/O顛覆大眾對360度影片的認知。以往,360度影片,只能在行動裝置上觀看,使用者需透過觸控控制的方式,調整觀看角度,這項限制讓360度影片和電視始終無緣。然而,在2017年Google I/O上,YouTube將360度直播影片搬上電視螢幕,使用者可透過電視或是遊戲遙控器控制畫面視角。未來幾個月內,這功能將可在以下支援的裝置上使用,包括Android TV、PlayStation 4和 Xbox One,同時LG或Samsung的4K TV也可使用。

資料來源:engadgetc|net

6 Google仿照人腦的類神經網絡建構人工智慧,但目前仍無法識別內容本質

mashdigi
Google藉由客製化處理器TPU縮減AI學習訓練時間,更說明背後運作的類神經網絡構成學習模型設計原理。不過,雖然目前AI能更具效率地學習,但依然無法讓AI了解其處理內容的本質,僅能仰賴學習不斷修正。

針對目前廣泛應用在Google Search、Google翻譯、Google Photos、語音辨識等服務的人工智慧系統,Google除說明藉由客製化處理器TPU縮減學習訓練時間,更進一步說明背後運作的類神經網絡構成學習模型設計原理,藉由從持續學習過程累積衍生全新學習經驗,讓人工智慧系統變得更為「聰明」。

mashdigi

隸屬Google Brain團隊的研究科學家Quoc Le說明,為了模擬人腦神經元連接所產生思考模式,Google內部研究團隊藉由積層式類神經網絡交疊構成1010組 (100億組)網絡交結組合,並且透過可進化式演算法及強化學習演算法使系統能從學習過程中累積經驗,進而達成從學習經驗中學習的成效,一如人類會從經驗法則內學習不同想法的情況。

就目前Google所採用方式,主要是藉由主控類神經網絡推導子集學習模型架構,並且藉其進行特定模式的學習訓練,同時評估最終訓練結果,最後再將訓練結果傳回主控類神經網絡,過程中則會依照學習情況判斷是否修正資料。

mashdigi

新的學習模型已經用在支援CIFAR-10的圖像辨識,以及用於自然語言處理的Penn Treebank資料集語言模型內,並且作為許多Google服務的應用基礎,例如以更快方式識別圖像內容為「熊貓」,以及在輸入法中即時顯示下一個備選詞彙。

人工智慧已經從幾年前仍處於實驗室階段,短時間內大量進入一般生活,幾乎包含手機、網路服務等應用均包含人工智慧技術成分,並且帶來相比傳統更高的運算效率,因此成為全新電腦運算發展模式,同時也因為目前每天所產生數據資料越來越多,透過傳統演算模式已經無法合乎效益,因此導入人工智慧的分析演算模式將成為日後主流。而在Google將TensorFlow學習模型開源之後,目前此項學習模型也在短時間內被廣泛使用,幾乎多數的人工智慧系統均藉由TensorFlow框架進行深度學習訓練。

不過,雖然目前藉由新設計讓人工智慧系統能以更具效率方式學習,甚至自行產生全新學習經驗法則,但依然無法讓系統本身了解目前所在處理內容的本質,亦即無法像人類般有情感般思考,因此也無法在學習過程中判斷資料是否有誤,僅能仰賴持續學習過程發現錯誤而重新修正,或是透過人為方式進行調整。

如此一來也能藉由知曉系統如何運算,進而掌握資料如何被使用、運算,避免系統產生「踰矩」現象,讓使用者能善用人工智慧運算模式帶來更便利且具效率的使用體驗,同時也因為人工智慧系統仍無法自行判斷內容本質,即使人工智慧技術以相當迅速角度發展,作為最終結果判斷、使用的「人」依然扮演重要角色。

藉人工智慧推動全新醫療系統

除了將人工智慧系統應用在旗下服務,Google也說明越來越多科技應用已與人工智慧息息相關,例如利用人工智慧分析預測各類病症,包含協助臨床醫師檢測淋巴結內的乳腺癌轉移情況,或是篩選判斷糖尿病視網膜病變,同時也進一步將人工智慧系統與各類醫療輔助設備結合,藉此實現各類疾病早期預防效果,甚至未來可進一步協助判斷病患是否需住院觀察,以及判斷未來病症影響身體健康情況,同時也能藉由病例資料深入了解病患可能需求。

目前Google已經與加州大學舊金山分校醫學院、史丹佛大學醫學院、芝加哥大學醫學院等醫療研究人員合作,構思如何結合機器學習技術及臨床診斷專業知識,藉此改善醫療成效、降低不必要的額外醫療花費與醫療疏失情況,同時協助臨床醫師運用更準確的分析判斷做出更好的診斷結果。甚至針對醫療人力資源較為短缺的偏遠地區或發展中國家,結合雲端分析運算資源也能協助醫師做出更正確的醫療診斷。

但在推行此項發展之前,Google也面臨不同醫療機構採用數據記錄格式差異所形成資料取用的困難,因此目前將藉由醫療開放數據標準FHIR (Fast Healthcare Interoperability Resources)讓病例等記錄資料格式統一,如此才能讓人工智慧系統取用,並且用於深度學習分析,但對於現有醫療數據資料仍須花費大量人力與時間統合。

而其他的挑戰則包含如何推廣至臨床,並且建立醫師及病患對於分析數據結果的信賴,另外也包含如何將人工智慧系統分析應用落實在醫療工作流程。

本文授權轉載自:mashdigi

7 Android O將直接內建虛擬實境體驗更好的Daydream 2.0

mashdigi
Google確認與Qualcomm合作的一體式VR頭戴裝置將預載Snapdragon 835處理器、Android O,同時更將導入運作效率更好的Daydream 2.0。

Google I/O 2017第二天針對虛擬實境與擴增實境應用的說明中,Google確認與Qualcomm合作的一體式VR頭戴裝置將預載Snapdragon 835處理器、Android O,同時更將導入運作效率更好的Daydream 2.0。

若從先前Qualcomm公布新款一體式VR頭戴裝置設計細節來看,除了處理器將採用Snapdragon 835規格,內建顯示螢幕將採用2K解析度,並且對應4GB記憶體與64GB儲存容量。此外,此次Google公布的空間定位技術「WorldSense」,基本上也是基於Qualcomm參考設計提供可對應上下左右,以及使用者身軀轉動加總的六軸追蹤,同時配合Snapdragon 835預測演算與攝影鏡頭等元件輔助,讓虛擬實境影像呈現更為穩定。

不過,此次Google與Qualcomm合作的參考設計似乎未整合影像識別手部的操作模式,因此依然需配合手持控制器與虛擬實境物件互動,或是進行基礎功能操作。而目前公布加入製作的合作廠商僅包含HTC與聯想,但預期日後將會有更多廠商加入設計。

Qualcomm

而在一體式VR頭戴裝置預載的新版Daydream 2.0 Euphrates,除了進一步提昇圖像渲染速度與項速填充率,操作介面更將讓使用者更容易找到喜好內容,並且支援讓使用者在配戴頭戴裝置時瀏覽手機即時通知內容,或是藉由新增支援Google Cast功能,將虛擬實境內容同步投放到安裝Chromecast或Android TV的電視螢幕。

為了增加更多使用樂趣,Google也在Daydream 2.0裡新增影像錄影、擷圖功能,讓使用者能在體驗過程保存精采畫面,另外也能在虛擬實境中與其他線上好友一同觀看YouTube VR內容,並且可對同一部影片內容評論。

mashdigi
mashdigi
mashdigi

就Google說明,目前僅Android O原生搭載Daydream 2.0服務,但未來是否將開放Android 7.0 (即Android N)對應使用,可能要等三星Galaxy S8系列機種開始支援Daydream服務才能確認。

針對內容開發者所提供設計工具部分,Google藉由Instant Preivew讓設計者能以更快、更簡單方式將內容輸出至手機內預覽,目前已經對應透過Unity或Unreal Engine引擎製作內容。

另外,藉由全新圖像渲染工具Seurat,將可讓手機採用GPU原本必須花費一小時才能完成渲染的3D場景,在短短13毫秒內即可完成,現場也透過喬治盧卡斯影業旗下ILMxLab工作室製作的《星際大戰外傳:俠盜一號》內容作為示範,藉由行動裝置運算效能呈現高解析虛擬實境影片內容。

google

本文授權轉載自:mashdigi

虛擬實境
Virtual Reality(VR)
「虛擬實境」為一種結合電腦圖形、電腦仿真、人工智慧、感應、顯示及網路並列處理等技術的發展成果,由電腦技術輔助生成的高技術模擬系統,利用電腦模擬產生3D空間的虛擬世界,提供使用者包括聽覺、觸覺等綜合可感知的人工環境,在視覺上產生沉浸於這個環境的感覺,並能與之互動,讓使用者仿佛身歷其境,能夠沒有限制的觀察3D空間內的事物,當使用者位置移動時,電腦可以立即進行複雜的運算,將精確的3D世界影像傳回,產生臨場感。 (來源: 維基百科MBA 百科 )