重點一:Meta 宣布在兩年內推出 MTIA 300、400、450、500 四代自製 AI 晶片,發行週期約每半年一代,遠快過業界氣一到兩年一代的常規節奏。
重點二:Meta 採取「推論優先」策略,MTIA 450 與 500 對準生成式 AI 推論作業報效,而非傳統大模型訓練,目標是對抗 Nvidia GPU 在推論場景的在本成本差距。
重點三:Meta 2026 年資本支出預定達 1,150 至 1,350 億美元(約合新台幣 3.7 至 4.3 兆元),自製晶片加上與 Nvidia、AMD 簽訂的龐大外購將並行推進。
Meta 在 2026 年 3 月 11 日正式公開 MTIA(Meta Training and Inference Accelerator)的完整四代路線圖,MTIA 300、400、450、500,全數預計在 2026 至 2027 年間完成部署。這個每半年出一代的節奏,在半導體產業幾乎聞所未聞。
這種速度的關鍵在於模組化設計:每一代晶片只替換核心運算單元,底層機架、散熱與網路基礎設施維持不變,讓新一代晶片可以直接插入現有資料中心,大幅縮短從設計到量產的時程。
Meta 工程副總裁 Yee Jiun Song 對 CNBC 表示,Meta 已和台積電(TSMC)合作生產這批晶片,並持續關注高頻寬記憶體(HBM)的供應鏈風險。
從推薦演算法到 AI 推論:MTIA 的代際分工
四代晶片各有不同的主攻戰場。MTIA 300 已進入量產,主要承接 Facebook 與 Instagram 的內容排序與廣告推薦訓練工作,是整個家族的「基礎款」。
MTIA 400(代號 Iris)則剛完成實驗室測試,即將進入 Meta 資料中心部署,效能較上一代提升 400% FP8 算力、高頻寬記憶體頻寬增加 51%,一個機架可容納 72 顆 MTIA 400,形成完整的規模化推論節點。
最關鍵的轉折發生在 MTIA 450(代號 Arke)和 MTIA 500(代號 Astrid)。這兩代晶片是「推論優先」哲學的完整體現,先為生成式 AI 推論最佳化,再向上兼容訓練工作,與主流 GPU 以訓練為核心的設計方向完全逆轉。
Meta 明確表示 MTIA 450 將在 2027 年初大規模部署,MTIA 500 則在同年稍晚接續上線。
千億資本支出下的供應多角化策略
Meta 對 AI 基礎設施的投入規模可觀:2026 年資本支出預定落在 1,150 至 1,350 億美元(約合新台幣 3.7 至 4.3 兆元)之間。在這個量級下,即便小幅提升單位效能,累積省下的成本也相當驚人,這也正是 Meta 自製晶片的核心動機。
不過自製並不等於排他。Meta 近期也與 Nvidia 和 AMD 各簽訂了數百億美元的 GPU 採購協議,鎖定了未來幾年的大量算力。Song 坦承,Meta 在 HBM 供應方面「相當擔心」,但表示已為現有規劃確保了足夠的供應量。
在外購 GPU 的同時大力投資自製晶片,這種「雙軌並行」的供應多角化策略,是 Meta 有別於純外採的 AI 基礎設施布局,同時也是繼 Google TPU、Amazon Trainium 之後,另一個超大規模雲端業者在 AI 晶片賽道試圖打出差異化的案例。
資料來源:Meta AI Blog、Bloomberg、about.fb.com、CNBC
本文初稿為AI編撰,整理.編輯/ 李先泰
