叫陣輝達!微軟推出自研AI晶片Maia 200:效能比同價位多30%,有望搶回雲端算力主導權?
叫陣輝達!微軟推出自研AI晶片Maia 200:效能比同價位多30%,有望搶回雲端算力主導權?

重點一 :微軟推出第二代自研 AI 晶片 Maia 200,號稱在同價位下效能較競品高 30%。

重點二 :Maia 200 優先部署美國資料中心,支援 Microsoft 365 Copilot 與內部 superintelligence 團隊。

重點三 :微軟以高頻寬記憶體與大規模串接設計,主打能效與總持有成本優勢,正面對決輝達與其他雲端對手。

微軟 (Microsoft) 宣布推出第二代自研人工智慧晶片 Maia 200,正式將其自家 AI 基礎設施推向商用前線,直接對標市場主流的輝達 (NVIDIA) GPU 以及亞馬遜 (Amazon)、Google 等雲端業者的專用 AI 晶片。

微軟表示,在現有硬體同等支出下,Maia 200 的效能可較競品高出約 30%,並強調這是公司迄今部署過「效率最高的推論系統」。同時,新晶片已在美國部分資料中心導入,優先支援 Microsoft 365 Copilot、內部 superintelligence 團隊與 Microsoft Foundry 等關鍵 AI 工作負載,未來將逐步擴大對外供應。

Maia 200 算力規格比較
在同樣 3nm 世代的雲端自研 AI 晶片中,Maia 200 以壓倒性 FP4/FP8 算力、最大 HBM 容量與最高雙向互聯頻寬,主打「超大模型低精度推理效能與規模擴充都最強」。
圖/ 微軟

Maia 200的產品定位是?

從產品定位來看,Maia 200 比較像「雲端版的專用 AI 引擎」,而不是我們熟悉、什麼都能跑的通用 GPU。GPU 原本為繪圖設計,後來被廣泛用在訓練、推理、科學運算等各種工作負載,追求的是彈性與通用性; 而 Maia 200 則從一開始就鎖定在資料中心裡的大模型推理,把 FP4/FP8 低精度算力堆到極致,目標是用最低成本處理最多的 token。

若與 Google TPU 相比,兩者同屬雲端自研 AI ASIC,但 TPU 同時兼顧訓練與推理、偏向整體 AI 研發流程; Maia 200 則更聚焦在「模型上線之後」的大量推理場景 ,替 Azure 上的 GPT‑5.2、Copilot 等服務,在效能與雲端成本之間找到一個最好、也最符合微軟自身商業版圖的平衡點。

Google第七代TPU「Ironwood」
Google第七代TPU「Ironwood」,與Maia 200同為AI ASIC,同時兼顧訓練與推理。
圖/ Google

微軟自研 AI 晶片走向前台

微軟最早在 2023 年公開第一代自研 AI 晶片 Maia 100,但當時多半仍屬試驗性質,主要用於內部服務與展示用途,例如證明 GitHub Copilot 等應用可在 Maia 100 上順利運行,並未對雲端客戶全面開放租用。這一代的 Maia 200,則是首度明確被定位為「可望大規模對外提供」的自研 AI 晶片,顯示微軟在設計、製造與系統整合方面,已累積足以支撐商用部署的經驗。

據微軟雲端與 AI 業務執行副總裁 Scott Guthrie 在部落格的說法,Maia 200 將率先部署於美國中部 (U.S. Central) 資料中心區域,接著擴展至美國西部 3 區 (U.S. West 3),並依照市場需求與基礎設施規劃導入更多地區。這意味著,在 Azure 平台上,未來企業與開發者除了輝達加速卡、亞馬遜 Trainium 或 Google TPU 等既有選項外,將多出以微軟自研晶片為基礎的運算資源。

Guthrie 表示,Maia 200 是「微軟部署過最有效率的推論系統」。微軟同時開放開發者、學術研究者、AI 實驗室與開源模型貢獻者申請預覽版軟體開發套件 (SDK),讓生態系可以提早針對 Maia 平台優化與測試,為未來雲端正式商用鋪路。

Maia 200 已導入部分美國資料中心
微軟自研 Maia 200 機櫃與液冷散熱系統實景,可見高密度布線與垂直模組化設計,對應大規模 AI 推理叢集的供電與散熱需求。
圖/ 微軟

Maia 200 主打 30% 效能優勢

在技術面,微軟並未在原文中揭露完整細節,但指出 Maia 200 採用 3 奈米製程,並以四顆晶片為一組配置於單一伺服器中。這些晶片之間透過乙太網路 (Ethernet) 串接,而非輝達近年在高效能運算與 AI 集群中廣泛採用的 InfiniBand 標準。乙太網路雖然在延遲與頻寬上不一定勝過 InfiniBand,但在既有網路基礎設施、成本結構與標準化程度上具有優勢,有利於微軟在資料中心內以較低成本建構與擴充 AI 叢集。

微軟強調,Maia 200 在「同樣價格」下能提供約 30% 的效能提升,並以此作為其推論系統效率優勢的核心賣點。對雲端客戶而言,生成式 AI 模型的推論通常是長期且持續的成本來源,若在不提高支出的前提下取得更高效能,等同於每單位算力的電力成本與總持有成本 (Total Cost of Ownership, TCO) 同步下降。

此外,微軟指出,Maia 200 搭載的高頻寬記憶體 (HBM) 容量,優於亞馬遜雲端服務 (Amazon Web Services) 第三代 Trainium AI 晶片及 Google 第七代 Tensor Processing Unit (TPU)。在大型語言模型與多模態模型的推論情境中,HBM 的容量與頻寬往往是效能瓶頸之一,更大的記憶體空間可以減少模型切分與頻繁跨節點溝通的必要,進而降低延遲與額外的系統開銷。

6,144 顆晶片大規模串接,押注 AI 基礎設施主導權

在系統層級設計上,微軟宣稱最多可以將 6,144 顆 Maia 200 串接於同一集群內,形成大規模平行運算平台,以支撐愈來愈龐大的 AI 模型與工作負載。這種規模化的設計,搭配自家資料中心的電力與冷卻優化,意在進一步壓低整體成本,以提升在 AI 基礎設施軍備競賽中的競爭力。

應用面上,微軟表示,內部的 superintelligence 團隊將使用 Maia 200 作為核心算力基礎,用於開發更先進、更大型的 AI 模型;面向企業與商用市場,Maia 200 則會優先支援 Microsoft 365 Copilot 這類加值服務,以及協助客戶基於基礎模型打造專屬應用的 Microsoft Foundry 平台。

換言之,未來企業在使用 Copilot 或在 Azure 上建構 AI 代理與各式產品時,背後的算力愈來愈有可能來自「微軟自家晶片」,而不再完全仰賴第三方硬體供應商。

現階段,全球雲端服務商與資料中心營運業者面臨雙重壓力:一方面,Anthropic、OpenAI 等模型開發公司持續擴張模型規模與訓練與推論需求;另一方面,各產業企業也紛紛投入 AI 代理、客服機器人與智慧應用的開發。

在有限的電力與機房空間條件下,如何同時滿足算力需求與成本控管,成為戰略優先事項。因此微軟透過 Maia 200,試圖從「雲端平台 + 自研晶片」的角度出發,強化自家在 AI 基礎建設上的議價權。

延伸閱讀:微軟明明業績很好,為什麼裁員不手軟?一封給員工的信透露科技巨頭策略
AI淘汰了哪種企業?報告揭轉型血淚:企業為何陷入「為了AI而AI」5大致命盲點?

資料來源:微軟CNBC

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #微軟 #Nvidia #GPU
往下滑看下一篇文章
數位時代 X 國泰金控 從百套系統上雲到 Cloud First:國泰如何把雲端變成AI成長引擎?
數位時代 X 國泰金控 從百套系統上雲到 Cloud First:國泰如何把雲端變成AI成長引擎?

2019年金融監理機關正式將雲端納入委外規範後,揭示金融業上雲時代來臨,國泰金控數數發中心成立雲端策略發展部,負責擬定集團上雲策略,並於2020年正式啟動7年集團雲端轉型計畫;在多數金融機構仍停留在單點遷移或IT現代化的現下,國泰金融集團在 2025 年即完成 100 套系統上雲,更將雲端轉型階段從 Cloud Ready、Cloud Adoption 推向 Cloud First,成為數據與人工智慧應用的關鍵引擎。

國泰金控資訊長|吳建興 James Wu
圖/ 數位時代

「百套系統上雲不僅僅是數字,更是讓國泰從『 IT 進化業務』邁向『 IT 驅動成長』的關鍵轉折。」國泰金控雲端策略發展部協理顏勝豪表示,上雲帶來的效益十分顯著,包括提升資源可用性與營運敏捷度、減輕 IT 維運負擔;同時,雲端業者多具備零碳排或綠能機房機制,亦有助於企業朝向 ESG 永續營運邁進。「金融上雲不是單純的現代化基礎設施或者是升級技術,而是為了換取速度與可靠度,讓集團可以加速創新腳步、彈性調配資源,以及培育所需人才與技能,為未來做最佳準備。」
為讓集團員工、金融同業以及有志上雲的夥伴可以進一步探討雲端轉型的各種可能,國泰金控舉辦雲端轉型成果發表會,會中除有集團子公司分享最新成果,三大公有雲平台業者也從不同技術視角共同探討在合規、資安與 AI 應用的可能。

七年、三階段,國泰金融集團將雲端內化為營運流程與創新引擎

國泰金控科技長|姚旭杰 Marcus Ya
圖/ 數位時代

為什麼國泰可以領先市場完成雲端轉型、數據與 AI 賦能業務?

顏勝豪認為,雲端轉型的起點不是直接遷移系統,而是從四個面向打底:應用系統盤點評估、雲端架構設計、雲端遷移藍圖規劃,以及組織治理框架建立,而這也是 Cloud Ready 階段最重要的事情。
「不同子公司有不同商業模式與節奏,若沒有共同語言與平台底座,上雲很容易各自為政。」顏勝豪表示,為讓所有員工可以齊步前行,國泰以雲端遷移方法論 Cathay 6R(註1)作為共同語言、用平台作為共同底座,讓轉型不只是技術選擇,而是集團行動。
完成單一系統的雲端遷移後,便進入 Cloud Adoption 階段。在這個階段中,要透過大規模遷移建立更成熟的上雲標準作業流程(SOP),透過 FinOps 機制控管與優化雲端營運成本,以及透過自動化與治理模型確認多雲環境與安全與維運穩定性,目標是將雲端內化為組織日常運營的一部分,進而邁向 Cloud First 階段:在合規前提下,新專案與系統升級預設在雲端環境開發,並善用雲原生優勢加速新產品功能開發速度。
「集團雲端策略只有一個核心原則:讓雲成為 AI 時代的成長引擎,而不是單純的基礎設施。」關於國泰的未來雲端布局,顏勝豪如是總結。

國泰金控 雲端策略發展部 協理|顏勝豪 Otto Yen
圖/ 數位時代

以雲端為 AI 資源引擎、發揮數據燃料價值,實現 AI 賦能業務應用

國泰不僅在2025年完成集團百套系統上雲,也啟動數據上雲計畫並為 GenAI 奠定基礎建設。
例如國泰金控實現數據上雲,打造資料湖倉與 GAIA 生態系統架構為 AI 賦能業務做準備:成立國泰風險聯防中心(CRC)攜手集團洗防人員強化風險控管與金融犯罪因應能力;釋出國泰員工 AI 助手–Agia–Beta
版,提供差勤、福利與權益、技術支援、職務職能與集團其他資訊等五大類別管理辦法等查詢服務;此外,亦推出集團數據共享平台、集團法規知識庫、 AI 評測中心等服務,更好發揮 Cloud First 與 AI 賦能業務應用的價值。
雲端是 AI 時代的關鍵底座、數據則是 AI 的燃料。顏勝豪指出,發展AI需要龐大的 GPU 算力,若自建 GPU 機房,不僅硬體設備昂貴、折舊速度快,光是散熱系統一年就高達兩、三千萬元的成本,若採取雲端資源,可以隨啟隨用,同時,大幅降低試錯成本。「當雲端打好基礎、AI成為能力模組,銀行、人壽、產險與證券的創新不再是單點突破,而是放大集團級綜效。」

國泰以 Cloud First + AI 持續領先市場、形塑未來樣貌

「雲端可以優化算力成本,資料則決定 AI 應用上限。」顏勝豪解釋,在 AI 新世代,AI 模型定調能力「下限」,集團子公司掌握的「獨特資料」則決定應用的「上限」,考量雲端有許多好用 AI 服務,唯有資料上雲才能發揮數據價值、用 AI 賦能集團各子公司業務。
例如國泰世華銀行將採取多公有雲策略,打造雲端智慧生態圈,並以現代化雲原生技術拓展應用場景;同時,運用 AI 與資料分析優化客戶服務體驗,並藉由跨雲整合機制支援多元業務模式,以充分發揮上雲效益。至於國泰產險,不僅在兩年半內完成13套核心系統上雲、優化營運流程,如以 Serverless 架構打造百萬級效果、萬元成本的短網址系統等,讓雲端成為產險驅動長期成長的核心引擎與標準配備。

國泰人壽則是透過雲端與 AI 滿足不同客戶需求,如以 AI Search 精準呈現關鍵字搜尋結果,讓客戶可以精準且快速的查找所需資料、大幅優化官網體驗與滿意度。至於國泰證券則是於2026年初推出「庫存管家」服務,以客戶持股為核心,應用 AI 技術打造個人化推播服務,協助投資人更有效率地掌握庫存狀況,提供更即時、系統化的投資管理體驗。
總的來說,國泰金控在集團的雲端轉型不僅是技術升級,更是思維革新,從百套系統上雲進展到 Cloud First 階段,可以預期在雲地基礎下,國泰將進一步引領 AI 時代變革,持續提升營運韌性與放大創新價值。

註1:Cathay 6R 國泰設計 Cathay 6R 雲端遷移方法論,將系統遷移方式依據上雲模式、系統開發成本分為 Rehost 、Replatform、Refactor、Rewrite、Replace 和 Retain 共6種遷移架構,並能對應到 IaaS、PaaS、SaaS 三種不同上雲模式。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓