iPhone的晶片比一半硬幣小,雲端服務器中的晶片比一角紙幣小,但現在,一個比iPad還大的晶片製造出來了。
它也成了目前史上最大的電腦晶片。這個晶片名為Cerebras Wafer Scale Engine,由加利福尼亞一家名為Cerebras的新創公司製造,尺寸約為8英吋×8英吋。
我們先來看看它「驚人」的性能參數:
- 12,000億個晶體管
- 46,225平方毫米的晶片面積
- 400,000個AI可編程內核
- 18GB超快速片上存儲器(SRAM)
- 9PB/s內存頻寬
- 100Petabits/s結構頻寬
- 稀疏性的原生優化(避免乘以零)
- 軟體與標準AI框架(如TensorFlow和PyTorch)的兼容性
如果你對這些參數的程度不熟悉的話,要知道,上個月AMD發布的世界上功能最強大的Epyc晶片,也只擁有320億個晶體管和64個內核。
比起世界上領先的圖形處理單元,Cerebras Wafer Scale Engine的高速片上快取大了3,000倍,內存帶寬大了10,000倍,它比最大的Nvidia GPU晶片面積也大了56.7倍。
按理說,在半導體行業中,其實更大的不代表就是更好。但其創辦人兼執行長安德魯・費爾德曼(Andrew Feldman)表示,更大的晶片,就是為了滿足更與時俱進的人工智慧。
這背後的邏輯很簡單:AI對我們的生活影響越來越大,數據庫也越來越大,但現在人工智慧行業進步的主要瓶頸,就是培訓模型需要極長時間。高性能AI的深度學習,需要透過大量的運算和頻繁的數據訪問進行訓練,才能不斷改進和升級,一個更強大的處理器,才能盡可能快地處理海量成長的新數據。
該晶片使用台積電的16奈米工藝製造的300毫米晶圓切割而成,這是單個晶圓級的解決方案,比起以往大多數晶片都是數十上百個集合起來,它能透過84個互連晶片組成的晶圓直接聯動工作。
這不僅克服了數10年前晶片尺寸的技術限制,而且這個晶片還具有400,000個AI優化的內核,具有靈活性、可編程性。
再加上比GPU大3,000倍的片上快取,解決了以往需要跨多個設備和內存層並行運算的問題,現在只用一個設備就能儲存和處理整個神經網絡。等於就是在一個晶片上,構建了帶有RAM的一整個電腦集群。
最後,與具有數百個傳統加速器的機架式服務器相比,Cerebras具有頻寬高、延遲低的獨特通訊結構,比現有的解決方案性能速度快數千倍,可以用以往無法想像的高效率來工作。
更多的內核、更大的RAM、低延遲高帶寬結構,共同構成了加速AI工作的絕佳環境。
Cerebras表示,該晶片可以驅動複雜的人工智慧(AI)系統,帶來AI技術的巨大飛躍,應用在未來的無人駕駛汽車、監控軟體市場等各個領域。但是,晶片製造商通常不會製造這麼大的晶片,因為這種大膽的設計,必須克服重大的技術障礙,包括互連、製造、封裝、冷卻等等。
即便是用了再精細的製造技術,這麼一大塊晶片也不可能沒有任何缺陷。雖然該公司打算使用「冗餘處理核心」技術,拋棄製造過程中一定數量的「壞」晶片,但量產良品率過低,也定會是個難越的坎。
另外,冷卻晶片也是個問題。小型電腦晶片使用的功率低,很容易冷卻,而Cerebras龐大的晶片不僅僅是散熱器和風扇就能冷卻,而是需更專業的基礎設施來協助。
此外,晶片由於太大而無法放入任何傳統封裝中,Cerebras必需配合定制包裝技術和工具來應對挑戰。
Ian Cutress博士說道:這也是為什麼它適合人工智慧領域,因為那也是現在大筆資金流向的地方。
總而言之,Cerebras晶片的規模和雄心是瘋狂的。但因為缺乏性能和功耗的細節,現在很難評估Cerebras晶片在未來的影響力。Cerebras表示,它目前正在幾家大型潛在客戶中開始測試系統,並將於10月份開始商用。但它不會單獨銷售或作為擴充卡銷售,Cerebras希望在2020年中期推出圍繞此類晶片構建的完整服務器。
預計未來幾個月,Cerebras晶片還會公佈更多技術的細節,這項技術,也必會隨著AI日新月異的進程而持續升溫。
責任編輯:江可萱
本文授權轉載自:愛范兒