重點一 :微軟推出第二代自研 AI 晶片 Maia 200,號稱在同價位下效能較競品高 30%。
重點二 :Maia 200 優先部署美國資料中心,支援 Microsoft 365 Copilot 與內部 superintelligence 團隊。
重點三 :微軟以高頻寬記憶體與大規模串接設計,主打能效與總持有成本優勢,正面對決輝達與其他雲端對手。
微軟 (Microsoft) 宣布推出第二代自研人工智慧晶片 Maia 200,正式將其自家 AI 基礎設施推向商用前線,直接對標市場主流的輝達 (NVIDIA) GPU 以及亞馬遜 (Amazon)、Google 等雲端業者的專用 AI 晶片。
微軟表示,在現有硬體同等支出下,Maia 200 的效能可較競品高出約 30%,並強調這是公司迄今部署過「效率最高的推論系統」。同時,新晶片已在美國部分資料中心導入,優先支援 Microsoft 365 Copilot、內部 superintelligence 團隊與 Microsoft Foundry 等關鍵 AI 工作負載,未來將逐步擴大對外供應。
Maia 200的產品定位是?
從產品定位來看,Maia 200 比較像「雲端版的專用 AI 引擎」,而不是我們熟悉、什麼都能跑的通用 GPU。GPU 原本為繪圖設計,後來被廣泛用在訓練、推理、科學運算等各種工作負載,追求的是彈性與通用性; 而 Maia 200 則從一開始就鎖定在資料中心裡的大模型推理,把 FP4/FP8 低精度算力堆到極致,目標是用最低成本處理最多的 token。
若與 Google TPU 相比,兩者同屬雲端自研 AI ASIC,但 TPU 同時兼顧訓練與推理、偏向整體 AI 研發流程; Maia 200 則更聚焦在「模型上線之後」的大量推理場景 ,替 Azure 上的 GPT‑5.2、Copilot 等服務,在效能與雲端成本之間找到一個最好、也最符合微軟自身商業版圖的平衡點。
微軟自研 AI 晶片走向前台
微軟最早在 2023 年公開第一代自研 AI 晶片 Maia 100,但當時多半仍屬試驗性質,主要用於內部服務與展示用途,例如證明 GitHub Copilot 等應用可在 Maia 100 上順利運行,並未對雲端客戶全面開放租用。這一代的 Maia 200,則是首度明確被定位為「可望大規模對外提供」的自研 AI 晶片,顯示微軟在設計、製造與系統整合方面,已累積足以支撐商用部署的經驗。
據微軟雲端與 AI 業務執行副總裁 Scott Guthrie 在部落格的說法,Maia 200 將率先部署於美國中部 (U.S. Central) 資料中心區域,接著擴展至美國西部 3 區 (U.S. West 3),並依照市場需求與基礎設施規劃導入更多地區。這意味著,在 Azure 平台上,未來企業與開發者除了輝達加速卡、亞馬遜 Trainium 或 Google TPU 等既有選項外,將多出以微軟自研晶片為基礎的運算資源。
Guthrie 表示,Maia 200 是「微軟部署過最有效率的推論系統」。微軟同時開放開發者、學術研究者、AI 實驗室與開源模型貢獻者申請預覽版軟體開發套件 (SDK),讓生態系可以提早針對 Maia 平台優化與測試,為未來雲端正式商用鋪路。
Maia 200 主打 30% 效能優勢
在技術面,微軟並未在原文中揭露完整細節,但指出 Maia 200 採用 3 奈米製程,並以四顆晶片為一組配置於單一伺服器中。這些晶片之間透過乙太網路 (Ethernet) 串接,而非輝達近年在高效能運算與 AI 集群中廣泛採用的 InfiniBand 標準。乙太網路雖然在延遲與頻寬上不一定勝過 InfiniBand,但在既有網路基礎設施、成本結構與標準化程度上具有優勢,有利於微軟在資料中心內以較低成本建構與擴充 AI 叢集。
微軟強調,Maia 200 在「同樣價格」下能提供約 30% 的效能提升,並以此作為其推論系統效率優勢的核心賣點。對雲端客戶而言,生成式 AI 模型的推論通常是長期且持續的成本來源,若在不提高支出的前提下取得更高效能,等同於每單位算力的電力成本與總持有成本 (Total Cost of Ownership, TCO) 同步下降。
此外,微軟指出,Maia 200 搭載的高頻寬記憶體 (HBM) 容量,優於亞馬遜雲端服務 (Amazon Web Services) 第三代 Trainium AI 晶片及 Google 第七代 Tensor Processing Unit (TPU)。在大型語言模型與多模態模型的推論情境中,HBM 的容量與頻寬往往是效能瓶頸之一,更大的記憶體空間可以減少模型切分與頻繁跨節點溝通的必要,進而降低延遲與額外的系統開銷。
6,144 顆晶片大規模串接,押注 AI 基礎設施主導權
在系統層級設計上,微軟宣稱最多可以將 6,144 顆 Maia 200 串接於同一集群內,形成大規模平行運算平台,以支撐愈來愈龐大的 AI 模型與工作負載。這種規模化的設計,搭配自家資料中心的電力與冷卻優化,意在進一步壓低整體成本,以提升在 AI 基礎設施軍備競賽中的競爭力。
應用面上,微軟表示,內部的 superintelligence 團隊將使用 Maia 200 作為核心算力基礎,用於開發更先進、更大型的 AI 模型;面向企業與商用市場,Maia 200 則會優先支援 Microsoft 365 Copilot 這類加值服務,以及協助客戶基於基礎模型打造專屬應用的 Microsoft Foundry 平台。
換言之,未來企業在使用 Copilot 或在 Azure 上建構 AI 代理與各式產品時,背後的算力愈來愈有可能來自「微軟自家晶片」,而不再完全仰賴第三方硬體供應商。
現階段,全球雲端服務商與資料中心營運業者面臨雙重壓力:一方面,Anthropic、OpenAI 等模型開發公司持續擴張模型規模與訓練與推論需求;另一方面,各產業企業也紛紛投入 AI 代理、客服機器人與智慧應用的開發。
在有限的電力與機房空間條件下,如何同時滿足算力需求與成本控管,成為戰略優先事項。因此微軟透過 Maia 200,試圖從「雲端平台 + 自研晶片」的角度出發,強化自家在 AI 基礎建設上的議價權。
延伸閱讀:微軟明明業績很好,為什麼裁員不手軟?一封給員工的信透露科技巨頭策略
AI淘汰了哪種企業?報告揭轉型血淚:企業為何陷入「為了AI而AI」5大致命盲點?
本文初稿為AI編撰,整理.編輯/ 李先泰
