Google公開更多自製機器學習演算專用晶片TPU細節:比GPU、CPU快15-30倍
Google公開更多自製機器學習演算專用晶片TPU細節:比GPU、CPU快15-30倍
2017.04.06 | Google

為了讓機器學習演算效率提高、因應更大量的運算需求,Google自行開發了專用的伺服器晶片「TPU」(Tensor Processing Unit),自2015年起在內部使用。去年五月,Google曾在I/O開發者大會提及TPU,今天首度公開更多細節及效能評估報告,發表在一篇論文中。

過去幾年來,處理機器學習演算較為經濟實惠的標準配備主要是像AMD和Nvidia等品牌的GPU。不過,Google從2006年就開始研究如何在數據中心使用GPU、FPGA與客製化特殊規格的ASIC(其實就是TPU)。

據Google表示,當時這種特殊硬體並沒有太大用處,就算是負荷較大的運算,只要利用數據中心原先多餘的硬體就夠了。不過到了2013年,情況改變,Google預期深度神經網路的使用會變得非常普遍,可能會使數據中心計算需求倍增,要是使用傳統CPU就會非常昂貴。因此,Google優先進行相關研發計畫,目標將性能提高至GPU的10倍以上。

TPU處理速度可達GPU/CPU的15-30倍

Google開發的Tensor Processing Unit是針對自家的「TensorFlow」機器學習框架最佳化的晶片,主要用於機器學習演算的後半階段。以大量數據對神經網路進行訓練時,通常是在GPU加速的伺服器上進行。之後對新數據進行推測的階段,Google則開始使用TPU,處理效率更高。

據論文中Google對自家晶片的測試,TPU在執行Google常規的機器學習運算時,速度比現行標準的GPU/CPU組合(Intel Haswell處理器與Nvidia K80 GPU)平均快上15-30倍。考量數據中心的功耗,使用TPU的效能功耗比也高了30-80倍(將來使用更快的記憶體,或許還會更高)。

相關細節,可以參考Google論文:In-Datacenter Performance Analysis of a Tensor Processing Unit

資料來源:Venture BeatTechCrunchGoogle

關鍵字: #Google #機器學習
本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓