叫陣輝達!微軟推出自研AI晶片Maia 200:效能比同價位多30%,有望搶回雲端算力主導權?
叫陣輝達!微軟推出自研AI晶片Maia 200:效能比同價位多30%,有望搶回雲端算力主導權?

重點一 :微軟推出第二代自研 AI 晶片 Maia 200,號稱在同價位下效能較競品高 30%。

重點二 :Maia 200 優先部署美國資料中心,支援 Microsoft 365 Copilot 與內部 superintelligence 團隊。

重點三 :微軟以高頻寬記憶體與大規模串接設計,主打能效與總持有成本優勢,正面對決輝達與其他雲端對手。

微軟 (Microsoft) 宣布推出第二代自研人工智慧晶片 Maia 200,正式將其自家 AI 基礎設施推向商用前線,直接對標市場主流的輝達 (NVIDIA) GPU 以及亞馬遜 (Amazon)、Google 等雲端業者的專用 AI 晶片。

微軟表示,在現有硬體同等支出下,Maia 200 的效能可較競品高出約 30%,並強調這是公司迄今部署過「效率最高的推論系統」。同時,新晶片已在美國部分資料中心導入,優先支援 Microsoft 365 Copilot、內部 superintelligence 團隊與 Microsoft Foundry 等關鍵 AI 工作負載,未來將逐步擴大對外供應。

Maia 200 算力規格比較
在同樣 3nm 世代的雲端自研 AI 晶片中,Maia 200 以壓倒性 FP4/FP8 算力、最大 HBM 容量與最高雙向互聯頻寬,主打「超大模型低精度推理效能與規模擴充都最強」。
圖/ 微軟

Maia 200的產品定位是?

從產品定位來看,Maia 200 比較像「雲端版的專用 AI 引擎」,而不是我們熟悉、什麼都能跑的通用 GPU。GPU 原本為繪圖設計,後來被廣泛用在訓練、推理、科學運算等各種工作負載,追求的是彈性與通用性; 而 Maia 200 則從一開始就鎖定在資料中心裡的大模型推理,把 FP4/FP8 低精度算力堆到極致,目標是用最低成本處理最多的 token。

若與 Google TPU 相比,兩者同屬雲端自研 AI ASIC,但 TPU 同時兼顧訓練與推理、偏向整體 AI 研發流程; Maia 200 則更聚焦在「模型上線之後」的大量推理場景 ,替 Azure 上的 GPT‑5.2、Copilot 等服務,在效能與雲端成本之間找到一個最好、也最符合微軟自身商業版圖的平衡點。

Google第七代TPU「Ironwood」
Google第七代TPU「Ironwood」,與Maia 200同為AI ASIC,同時兼顧訓練與推理。
圖/ Google

微軟自研 AI 晶片走向前台

微軟最早在 2023 年公開第一代自研 AI 晶片 Maia 100,但當時多半仍屬試驗性質,主要用於內部服務與展示用途,例如證明 GitHub Copilot 等應用可在 Maia 100 上順利運行,並未對雲端客戶全面開放租用。這一代的 Maia 200,則是首度明確被定位為「可望大規模對外提供」的自研 AI 晶片,顯示微軟在設計、製造與系統整合方面,已累積足以支撐商用部署的經驗。

據微軟雲端與 AI 業務執行副總裁 Scott Guthrie 在部落格的說法,Maia 200 將率先部署於美國中部 (U.S. Central) 資料中心區域,接著擴展至美國西部 3 區 (U.S. West 3),並依照市場需求與基礎設施規劃導入更多地區。這意味著,在 Azure 平台上,未來企業與開發者除了輝達加速卡、亞馬遜 Trainium 或 Google TPU 等既有選項外,將多出以微軟自研晶片為基礎的運算資源。

Guthrie 表示,Maia 200 是「微軟部署過最有效率的推論系統」。微軟同時開放開發者、學術研究者、AI 實驗室與開源模型貢獻者申請預覽版軟體開發套件 (SDK),讓生態系可以提早針對 Maia 平台優化與測試,為未來雲端正式商用鋪路。

Maia 200 已導入部分美國資料中心
微軟自研 Maia 200 機櫃與液冷散熱系統實景,可見高密度布線與垂直模組化設計,對應大規模 AI 推理叢集的供電與散熱需求。
圖/ 微軟

Maia 200 主打 30% 效能優勢

在技術面,微軟並未在原文中揭露完整細節,但指出 Maia 200 採用 3 奈米製程,並以四顆晶片為一組配置於單一伺服器中。這些晶片之間透過乙太網路 (Ethernet) 串接,而非輝達近年在高效能運算與 AI 集群中廣泛採用的 InfiniBand 標準。乙太網路雖然在延遲與頻寬上不一定勝過 InfiniBand,但在既有網路基礎設施、成本結構與標準化程度上具有優勢,有利於微軟在資料中心內以較低成本建構與擴充 AI 叢集。

微軟強調,Maia 200 在「同樣價格」下能提供約 30% 的效能提升,並以此作為其推論系統效率優勢的核心賣點。對雲端客戶而言,生成式 AI 模型的推論通常是長期且持續的成本來源,若在不提高支出的前提下取得更高效能,等同於每單位算力的電力成本與總持有成本 (Total Cost of Ownership, TCO) 同步下降。

此外,微軟指出,Maia 200 搭載的高頻寬記憶體 (HBM) 容量,優於亞馬遜雲端服務 (Amazon Web Services) 第三代 Trainium AI 晶片及 Google 第七代 Tensor Processing Unit (TPU)。在大型語言模型與多模態模型的推論情境中,HBM 的容量與頻寬往往是效能瓶頸之一,更大的記憶體空間可以減少模型切分與頻繁跨節點溝通的必要,進而降低延遲與額外的系統開銷。

6,144 顆晶片大規模串接,押注 AI 基礎設施主導權

在系統層級設計上,微軟宣稱最多可以將 6,144 顆 Maia 200 串接於同一集群內,形成大規模平行運算平台,以支撐愈來愈龐大的 AI 模型與工作負載。這種規模化的設計,搭配自家資料中心的電力與冷卻優化,意在進一步壓低整體成本,以提升在 AI 基礎設施軍備競賽中的競爭力。

應用面上,微軟表示,內部的 superintelligence 團隊將使用 Maia 200 作為核心算力基礎,用於開發更先進、更大型的 AI 模型;面向企業與商用市場,Maia 200 則會優先支援 Microsoft 365 Copilot 這類加值服務,以及協助客戶基於基礎模型打造專屬應用的 Microsoft Foundry 平台。

換言之,未來企業在使用 Copilot 或在 Azure 上建構 AI 代理與各式產品時,背後的算力愈來愈有可能來自「微軟自家晶片」,而不再完全仰賴第三方硬體供應商。

現階段,全球雲端服務商與資料中心營運業者面臨雙重壓力:一方面,Anthropic、OpenAI 等模型開發公司持續擴張模型規模與訓練與推論需求;另一方面,各產業企業也紛紛投入 AI 代理、客服機器人與智慧應用的開發。

在有限的電力與機房空間條件下,如何同時滿足算力需求與成本控管,成為戰略優先事項。因此微軟透過 Maia 200,試圖從「雲端平台 + 自研晶片」的角度出發,強化自家在 AI 基礎建設上的議價權。

延伸閱讀:微軟明明業績很好,為什麼裁員不手軟?一封給員工的信透露科技巨頭策略
AI淘汰了哪種企業?報告揭轉型血淚:企業為何陷入「為了AI而AI」5大致命盲點?

資料來源:微軟CNBC

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #微軟 #Nvidia #GPU
往下滑看下一篇文章
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作

現代人手機不離手,通勤時滑短影音、午休追串流影劇、下午開視訊會議,網路影音應用成為工作與生活的普遍情境。然而,一旦畫面卡頓、畫質不穩,或聲畫不同步,使用體驗立刻打折,甚至影響工作效率與專業判斷。

也因此,網路品質不再只是「快不快」的問題,更關乎能否在高使用量的日常情境下,維持穩定、連續的表現;對此,第三方評測也採用更貼近使用者情境的方式衡量網路體感。而 Opensignal 最新報告指出,台灣大哥大在影音體驗相關項目是業界唯一同時拿下「影音體驗」與「5G 影音體驗」雙項獎項的電信商,其中,關鍵的差異是什麼?

為何「影音體驗」是網路品質的關鍵指標?

愈來愈多消費者入手旗艦機,追求的不只是硬體規格,還有流暢的 AI 應用與多工協作。然而,無論是視訊即時翻譯或雲端會議,這些高階功能都有一個共同前提:網路必須穩定。一旦網路品質不佳導致畫質下降或音畫不同步,旗艦級的 AI 功能將形同虛設。

這也意味著,檢驗網路價值的標準已經改變。如今,不能只看單點測速的瞬間峰值,更重要的是高負載情境下的耐力表現。因此,比起單點測速,影音體驗會是更完整的測試標準,直接挑戰了網路在室內深處、移動途中或人潮聚集時的網路實力;而唯有在長時間串流下依然不卡頓、不降畫質,才稱得上是高品質的連線。

換言之,隱身在硬體背後的電信商,才是發揮旗艦機性能的關鍵;唯有透過最佳網路品質,才能讓手中的旗艦機既是規格領先、也是體驗領先。

唯一影音體驗雙料冠軍,Opensignal 權威認證的有感體驗

雖然相較於測速數據,影音體驗更貼近日常使用,但也更難量化。對此,國際權威認證 Opensignal 的「影音體驗分數」,依循 ITU 國際標準,透過真實用戶裝置在行動網路上進行影音串流的實測數據,觀察不同電信網路在實際使用情境下的表現。

簡單來說,評測聚焦三項核心指標:影片載入時間、播放期間的卡頓率,以及畫質(解析度)是否能穩定維持。使用者從開始播放到持續觀看的整體品質,分數以 0–100 呈現,分數愈高,代表在三項指標的表現愈佳。相較於單點測速,這類評測更能呈現長時間、高使用量下的網路品質。

人流情境不降速.jpg
圖/ 數位時代

而在今年最新公布的 Opensignal 評測中,台灣大哥大獲得「影音體驗」獎項唯一雙料冠軍。其中,「整體影音體驗」為全台獨得第一名,「5G 影音體驗」則與遠傳並列第一。

之所以能在影音體驗拔得頭籌,關鍵在於台灣大哥大目前是全台唯一整合 3.5GHz 頻段 60MHz 與 40MHz、形成 100MHz 總頻寬的電信業者,亦是現階段全台最大 5G 黃金頻寬配置。頻寬愈寬,代表單位時間內可傳輸的資料量愈大;在大量使用者同時進行影音串流、視訊互動的狀態下,更能維持穩定傳輸、減少壅塞發生機率。

台灣大獲權威認證,NRCA技術撐起穩定基礎

除了頻寬帶來的流量優勢,台灣大哥大也採用「NRCA 高低頻整合技術」,也就是透過高低頻協作,讓 3.5GHz 負責高速傳輸、700MHz 補強覆蓋與室內連線,改善室內深處與移動情境的訊號落差,提升連線連續性。

同時,為了讓住家、通勤動線、商圈與觀光熱點等高使用場域維持穩定表現,台灣大哥大已在全台超過213個住宅、觀光及商圈熱點完成 100MHz 布建,提升人流密集區的網路覆蓋率。

5G高速(小).jpg
圖/ dreamstime

值得注意的是,在今年的 Opensignal 評比中,台灣大哥大還拿下了「5G 語音體驗」與「網路可用率」兩項第 1 名,累計獲得 4 項獎項。這意味著不僅具備影音體驗優勢,在語音互動與連線率等關乎用戶日常應用的基礎指標,皆有亮眼成績。

尤其,隨著影音與即時互動成為新世代的工作常態,網路品質的重要性只會持續上升。無論是遠距協作所仰賴的視訊與畫面共享即時同步,內容創作對直播與即時上傳連續性的要求,或是 AI 視訊互動、即時翻譯與會議摘要等新應用,都高度依賴低延遲與穩定的資料傳輸。網路品質因此不再只是連線條件,更是支撐內容生產、協作效率與新應用落地的基礎能力,甚至直接牽動競爭力。

而台灣大哥大經 Opensignal 認證、於多項關鍵指標領先業界,不僅將成為 AI 時代的重要後盾,也讓使用者能更充分發揮高階手機的效能,把「快、穩、滑順」落實在每天的工作與生活中。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓