AI運算更快速!Intel、Facebook攜手打造首款神經網絡處理器
AI運算更快速!Intel、Facebook攜手打造首款神經網絡處理器

Intel 宣布要與Facebook合作,推出首款專為機器學習設計的「Nervana」神經網絡處理(NNP)系列晶片,是一款專為人工智慧所設計的快速晶片,提供高效率的AI運算,預計在今年年底就能出貨。

為更多產業帶來高效率的 AI 運算能力

「我們很興奮在向市場分享這款新世代AI硬體時,能跟 Facebook 密切合作,共同分享技術見解。」Intel 執行長布萊恩‧科再奇(Brian Krzanich)在《華爾街日報》舉辦的 WSJDLive 全球科技會議上,宣布與 Facebook 合作推出首款神經網絡處理系列晶片,且將在今年年底前出貨,並表示 Intel 有信心能夠超越去年設定的目標,在2020 年時讓 AI 效能提高100 倍。

科再奇認為透過「Nervana」神經網絡處理器,可以為許多產業帶來高效率的 AI 運算能力,他也列舉了四項例子,像是在醫療保健 AI 可以讓早期診斷提高精準度、增進癌症、帕金森病研究;社群媒體可以為客戶提供更個人化的服務;無人車未來能在汽車產業更快實現;AI 也能幫助研究人員掌握風速、水溫數據,可以有效預測颶風軌跡。

Nervana-neural-network-processor
Intel 縮小了Nervana 神經網絡晶片的電路尺寸來減少運算時的耗能,將可以處理更大量的數據。

加快深度學習,Facebook:改變對 AI 軟硬體建構的策略

去年八月,Intel 以3.5億美元收購深度學習新創業者 Nervana Systems,這次打造的首款基於神經網絡處理的 AI 晶片,採用標準緩存層次結構,並使用軟體來管理晶片上的內存,如此一來便能加快深度學習模型訓練時間。

跟PC晶片不同,Nervana 神經網絡處理晶片是一款特殊的積體電路,是為訓練和執行深度學習演算法所打造,Intel 縮小了Nervana 神經網絡晶片的電路尺寸來減少運算時的耗能,將使用可處理大量數據的「Flexpoint」格式達到「大規模雙向數據傳輸」,意思是如果將大量的晶片連接在一起,就可成為一個巨大的虛擬晶片,能達到更大規模的深度學習模型,此架構目標,是要打造出能彈性應付深度學習的處理器,當處理高強度運算要求時,可以更有效率。

科再奇在 WSJ D.Live 科技會議上透露,Facebook 在試用過 Nervana 神經網絡處理晶片後,認為這可以改變公司對 AI 軟硬體建構的策略。

挑戰 NVIDIA,Intel 曾推出自我學習型晶片Loihi

NVIDIA 過去一直在 AI 硬體發展遙遙領先,目前多數 AI 系統都以 CPU (中央處理器)運作處理為基礎,但在 NVIDIA 的推動下,許多深度學習應用都將 GPU(圖形處理器) 列為主要加速應用的基礎,CPU 只用來作為指令運作或系統控制等需求使用。

為了因應產業以GPU為AI系統發展的趨勢,今年九月 Intel 推出一款具備自我學習能力的處理器晶片「Loihi」,這款晶片採用14奈米製程技術,由13萬組類神經元及超過1.3億組類神經網絡系統組成,每組類神經元具備學習引擎,能夠彼此溝通,模擬人類的大腦運作,達到自我學習的效果,不用再額外提供學習數據,只需持續運作就能應付各種不同的運算模式。

Loihi
今年九月 Intel 推出一款具備自我學習能力的處理器晶片「Loihi」。

Loihi 晶片預計在2018 年上半年與部分大學與研究機構合作,來推動未來 AI 發展。

關鍵字: #Facebook #英特爾
本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓