重點一:AMD(超微半導體)預告2027年推出Instinct MI500X-series(MI500X系列),宣稱相較MI300X可達最高1,000倍AI效能。
重點二:MI500採CDNA 6(架構)、2nm製程與HBM4E(高頻寬記憶體),並加入FP4等低精度格式。
重點三:AMD估AI資料中心算力5年內由約100 ZettaFLOPS升至10+ YottaFLOPS。
AMD(超微半導體)在CES(消費性電子展)期間由Chair and CEO Lisa Su(蘇姿丰)宣布,下一代Instinct MI500X-series(MI500X系列)AI與HPC加速器將在2027年登場。
AMD並釋出強勢目標:相較2023年推出的Instinct MI300X(加速器),MI500系列要做到「最高1,000倍」AI效能。
公司同時預估,全球AI資料中心算力將在五年內,從約100 ZettaFLOPS(ZF)提升到10+ YottaFLOPS(YF);需求暴增意味著硬體、軟體與網路各層都得年年提速,MI500則被設定為承接這波擴張、支撐更大模型與更密集推理的關鍵產品。
依AMD說法,Instinct MI500將採用次世代CDNA 6(架構),計算晶片採TSMC N2(台積電2奈米級製程),搭配更高速的HBM4E(高頻寬記憶體)。在數值精度方面,將加入FP4(低精度浮點)與其他更低精度格式,以提升訓練與推理的能效與吞吐。
平台層面則會引進更快的Scale-up互連,並「可能」採用PCIe 6.0(周邊互連規格)連接至主機CPU。
綜合來看,這一代的重點是把張量/矩陣運算密度再往上推、縮短計算到記憶體的距離、並以架構加上製程的雙重進步,換取更高的每瓦效能(Performance-per-Watt)。
「四年1,000倍」的效能目標,反映出AMD對YottaFLOPS級資料中心的野心。不過據《Tom's Hardware》報導,AMD尚未明確定義「1,000倍」的比較指標(例如是特定模型的訓練吞吐、推理QPS,或以更低精度計算的峰值運算),目前仍屬前瞻宣示。
即便如此,從CDNA 3到CDNA 6的ISA跨越、HBM3到HBM4E的記憶體躍遷、加上更快互連與可能導入PCIe 6.0,都可合理推論MI500將在張量密度、記憶體頻寬與系統擴展性上帶來顯著提升。
報導也指出,隨著AI算力節節升高,供應鏈在2nm製程、HBM4E產能、機房電力與散熱、網路拓撲與布線等環節都將被壓到更緊;而生態上,模型與框架也需更積極擁抱低精度格式,以把硬體潛能轉成實際的訓練與推理速度。
資料來源:Tom's Hardware、AMD
本文初稿為AI編撰,整理.編輯/ 李先泰
