人工智慧AlphaGo的成功,過去認為來自Google擅長的大規模資料處理以及演算法計算。不過令外界意想不到的是,執行長桑德·皮查(Sundar Pichai)在今日的Google2016年開發者大會上發表一款Google自行研發的機器學習專用晶片,更是造就AlphaGo的祕密武器。
(圖說:Google執行長皮采於2016開發者大會發表特製晶片TPU如何改善機器學習演算法。圖片來源:Google Developers)
特製晶片效能為現有技術往前推進七年
皮采指出,Google在幾年前就已著手研發客製化的特殊應用積體電路(ASIC),而這款專用於Google開源機器學習演算法TensorFlow、也是提升AlphaGo計算速度的特製晶片TPU(Tensor Processing Unit),用以改善機器學習相關應用,迄今已使用超過一年。
為了加速機器學習進程,TPU捨棄掉傳統晶片如CPU和GPU的高精確度,減少計算需要的電晶體數量並提升每瓦效能。根據Google說法,「TPU讓機器學習的每瓦效能提高一個數量級,相當於將晶片效能往前推進七年或三代的摩爾定律」。
(圖說:AlphaGo伺服器使用Google自製晶片TPU。圖片來源:Google Cloud Platform Blog)
Google產品、外部開發者皆可受惠
目前,Google使用機器學習的應用超過百種,例如搜尋、語音辨識和自駕車。Google傑出硬體工程師諾曼‧約皮(Norman Jouppi)指出:「這類程式需要耗費龐大資金才能提供快速集中的運算能力和電力,自製機器學習加速器讓Google可更加經濟地加快產品推出。」迄今,Google已使用超過1千個TPU,運用於街景、智慧訊息回覆和搜尋,幫助改善搜尋結果相關性,以及提升地圖和導航產品的精確度。
除了Google內部產品可受惠於這套最新的機器學習演算法,Google的雲端機器學習服務也開放開發者利用這套演算法打造自己的應用服務。「我們的目標是引領機器學習產業,並讓創新得以在顧客身上實現。透過在基礎建設加入TPU,我們可以透過軟體如TensorFlow和雲端機器學習將Google的力量帶給開發者。機器學習正在改變開發者如何打造讓消費者受惠的智慧應用,我們非常高興看到未來生活的可能性。」約皮表示。
微軟也在嘗試新的晶片設計
Google並非唯一為了加快人工智慧而採用新的晶片設計的公司。《華爾街日報》指出,微軟正在使用一款名為Field Programmable Gate Arrays的可編程晶片,以加速人工智慧運算,應用於Bing搜尋引擎。NVIDIA推出的GPU則被應用在人工智慧計算,這款晶片過去也被Google用於AlphaGO的早期測試。
透過自行生產客製化晶片,Google將更可掌控支出、技術規格以及未來發展藍圖。但這是否代表Google對第三方晶片供應商如Intel或Nvidia的依賴將日益降低?約皮表示,「我們依然購買大量的CPU和GPU,」但不願透露購買數量是否較過去少。
資料來源:Google、The Wall Street Journal、Forbes
延伸閱讀:
[2016 Google I/O] 有靈魂的智慧家電:Google Home
[2016 Google I/O] Google推VR平台,邀華碩與HTC一起做「白日夢」
Google I/O總整理:離未來最近的發表會