超微MI325X對槓Blackwell!CPU、GPU都坐二望一,AMD如何超車輝達、英特爾?
超微MI325X對槓Blackwell!CPU、GPU都坐二望一,AMD如何超車輝達、英特爾?

IC設計大廠超微(AMD)於美國時間10月10日在舊金山舉辦「Advancing AI 2024」大會,執行長蘇姿丰發表資料中心AI加速器Instinct MI325X、第5代 EPYC處理器「Turin」、商務AI PC晶片「Ryzen AI PRO 300」系列等產品。

《數位時代》前進現場,帶給讀者第一手觀察。

在今年第2季,超微的資料中心營收繳出28.3億美元、年增115%的亮眼成績單,並在公司整體營收佔據逾過半,也讓執行長蘇姿丰於9月曾直言,超微已成為一家資料中心為主的公司。

超微在資料中心的產品線,包括Instinct系列的AI加速器(GPU)、EYPC系列處理器(CPU),這2個產品有哪些特色?對上競爭對手輝達、英特爾有何優勢?而在GPU、CPU市場都是老二的超微,有哪些突圍關鍵?

關鍵1:下一代MI350,有望力抗輝達Blackwell

Instinct MI300X AI加速器自2023年12月推出以來,不到2季的銷售額就超過10億美元,成為超微史上成長最快的產品。

在今年6月的台北國際電腦展(Computex)上,超微宣布了Al加速器的產品發展藍圖:2024~2026年每年將推出一款新品,分別為MI325X、MI350系列、MI400。MI325X將於本季量產出貨,下游伺服器台廠如技嘉、華擎、英業達、雲達、神達等,將於明年第1季開始供貨。

AMD Advancing AI 2024 Instinct timeline.jpg
超微Instinct AI加速器系列2023年至2026年產品路線圖
圖/ 孫嘉君攝影

MI325X以台積電4/5奈米製程生產,採CDNA 3架構,搭載256GB的HBM3E記憶體,記憶體頻寬達6TB/s,記憶體容量為輝達H200的約1.8倍、記憶體頻寬約為1.3倍,AI訓練性能最高達H200的1.1倍、推論效能則是1.4倍。

AMD Advancing AI 2024 Instinct vs H200.jpg
MI325X記憶體容量為輝達H200的約1.8倍、記憶體頻寬約為1.3倍,FP8及FP16數據格式的算力則是1.3倍。
圖/ 孫嘉君攝影

另一方面,超微也預告規劃2025年下半推出的MI350系列晶片,以台積電3奈米製程生產,採用CDNA 4架構,推論能力將達MI300X的35倍;且記憶體容量再升級,將搭載288GB的HBM3記憶體,比Blackwell B200的192GB多上50%。此外,在FP4數據格式的運算能力,MI355X算力為9.2 PFLOP,也較B200的9 PFLOP略勝一籌。

不過,目前佔據GPU 9成市佔的輝達,以高度軟硬體整合的CUDA架構作為護城河,讓開發人員不易轉換生態系統。而包括持續優化軟體開發平台ROCm,與先前接連買下Mipsology、Nod.ai、Silo AI等AI新創,皆是超微在軟體層面持續追趕的努力。

在7月發布的第2季財報中,蘇姿丰表示,看好客戶對AI晶片需求,預期2024年資料中心GPU營收,從4月預測的40億美元,上修至45億美元。

關鍵2:資料中心CPU市佔34%!Turin效能可達英特爾2.7倍

而在資料中心CPU領域,過去由英特爾佔了超過9成市佔,自從2017年超微以EPYC系列產品重返市場以來,超微在資料中心市佔率由最初的僅2%,到2024年上半年成長到約34%,創下歷史新高。

AMD Advancing AI 2024 EPYC timeline.jpg
超微EPYC處理器市佔由2017年的2%,至2024年上半年成長至34%
圖/ 孫嘉君攝影

先前在Computex曾預告的第5代EPYC處理器(代號Turin),也在10日舉行的Advancing AI大會發表進一步細節。

Turin處理器以台積電3/4奈米製程生產,採用「Zen 5」核心架構,提供8核心到192核心的廣泛核心數量,據稱最高階的192核心CPU,比英特爾第五代旗艦Xeon處理器效能提升2.7倍。其中顯著的加速效果,像是視訊轉碼速度加快4倍、高性能運算(HPC)應用程式運算速度提升3.9倍等。

超微執行長蘇姿丰在專題演說中,並提到企業用戶可無痛把舊伺服器,汰換為超微的方案,不只省電且能部署更多算力資源。例如,將1000台較舊的英特爾Xeon Platinum 8280 伺服器,換成131台Turin伺服器,得以降低功耗68%、減少87%的伺服器數量。而且所節省下的空間,還可用於提升資料中心的AI算力。

AMD Advancing AI 2024 EPYC server .jpg
將1000台較舊的英特爾Xeon Platinum 8280伺服器,換成131台Turin伺服器,得以降低功耗68%、減少87%的伺服器數量
圖/ 孫嘉君攝影

相對於英特爾旗艦產品最多為64個核心,Turin則最高可達192個的超多核心數。一名台系伺服器廠主管指出, 以超微和英特爾CPU的特色來比較,英特爾較著重於單個核心的高性能,超微則是單核心的性能較不突出、但擁有的核心數較多。

而就他觀察,目前大部分客戶的需求是「夠用就好」, 不過,漸漸來選擇超微的客戶,一方面認為在接近的功耗、效能及成本下,更多的核心數「CP值相對較高」;其中,尤其雲端服務商需要較多的核心數,因為核心越多、能夠提供服務的虛擬機較多,因此會有較大的需求。

延伸閱讀:超微新AI晶片來了,強勢對標輝達H200!現場直擊:蘇姿丰4大策略衝AI市佔

責任編輯:李先泰

往下滑看下一篇文章
AI 智慧代理人時代來臨!三大導入階段, AI 落地企業不卡關
AI 智慧代理人時代來臨!三大導入階段, AI 落地企業不卡關

生成式 AI 帶動企業數位轉型浪潮持續升溫,各界不再滿足單一任務型的 AI 應用,而是期盼 AI 能真正成為具備主動決策與多工能力的「智慧代理人」(Agentic AI),在最少人為干預的情況下,自主推進工作流程、完成複雜任務。

但企業導入AI並非一蹴可幾,而是需要對AI有正確認識,並制訂循序漸進的導入流程,才能真正發揮AI功效。在2025台灣人工智慧年會中,cacaFly 聖洋科技技術副總吳振和提出三大導入關鍵階段,深入剖析企業如何從概念驗證(PoC)階段,逐步推進到實際上線(Production),並分享實務經驗與觀察。

延伸閱讀:生成式AI可以怎麼用?cacaFly現身說法,助企業應用GCP服務智慧轉型

解鎖 Agentic AI,企業邁向多任務智慧代理

「很多公司會問,One AI 要做什麼事?但實際上,若要讓 AI 回答公司內部政策或新法條的相關問題,僅靠基礎模型並不足夠。」吳振和指出,要讓 AI 真正成為能「做事」的智慧代理人,前提是它必須理解企業內部的脈絡與知識,並即時掌握外部變動的資訊。

企業必須先釐清內部規範是否與最新法規相符,這意味著系統必須具備持續爬取與解析最新資料的能力。為此,企業必須先截取與整理內容,再建構成專屬的知識庫(Knowledge Base),確保資料品質達到可用標準後,再透過檢索增強生成(Retrieval-Augmented Generation, RAG)技術,使 AI 能夠即時動態查詢並生成符合企業語境的回答。

延伸閱讀:從資料清洗到 RAG,大型語言模型的必需品,做出專屬企業的 AI 知識庫!

吳振和強調,這是一個動態循環的過程:從資料蒐集、品質控管、知識庫建構到生成應用,每一環節都息息相關,任何一處鬆動都會影響最終產出的準確性與可信度。

cacaFly 聖洋科技技術副總吳振和
圖/ cacaFly

破除「一次到位」迷思,從驗證到落地的三大關鍵階段

許多企業對 AI 寄予厚望,因此常將 PoC 視為年度計畫的重點,希望能「一次到位」做出具體成果。但吳振和提醒,若缺乏清楚的系統工程思維,PoC 容易淪為「概念展示」,難以真正走入組織的日常營運。

他將導入 Agentic 系統工程的歷程,分為三個關鍵階段:

1.第一階段:可行性評估(Feasibility Study)
企業必須在投入資源前,先明確界定「最需要被 AI 解決的關鍵問題」是什麼,並進一步設計可量化的驗證指標。這不僅包括評估技術實作的可行性,更要從商業目標出發,釐清導入 AI 的具體使用情境、預期成效與風險邊界,如此才能確保後續模型選型與資料蒐集方向正確對齊業務需求。

2.第二階段:系統設計與驗證(Design & PoC)
在確定導入方向後,必須規劃清楚資料蒐集與整理流程,確保知識庫的內容具備正確性、完整性與時效性。吳振和特別強調,這個階段不能只追求展示效果,而應以「產品化思維」來構築 PoC,使其具備可擴充性、可維護性及安全性,才能為後續上線打下基礎。

3.第三階段:產品化與營運(Production & Operation)
當 PoC 驗證完成後,進入正式上線階段,挑戰也隨之而來。除了需要整合企業內部系統與流程,還必須建立持續監控與維運機制,確保模型表現隨時間演進不會劣化,並能快速回應法規變動或資料更新的需求。吳振和指出,這往往是最容易被低估、但也是最考驗企業組織能力的關鍵環節。

cacaFly 聖洋科技技術副總吳振和
圖/ cacaFly

建立模型優化根基,打造高品質的黃金資料集

吳振和特別強調,要讓 Agentic 系統工程真正發揮效益,企業必須先建立一套高品質的「黃金資料集」(Golden Dataset),作為模型評估與優化根基。他指出,黃金資料集的價值在於能為模型選擇與前測提供客觀依據,讓團隊能針對不同任務挑選最適合的模型,避免導入初期就誤踩方向。

同時,黃金資料集也能協助團隊辨識模型的常見錯誤與脆弱點,進而快速回應「模型飄移」(Model Drift)的風險。吳振和說明,所謂模型飄移,指的是即使模型本身未經改版,效能也可能隨著環境與資料變動而突然下降,導致原本表現良好的模型出現偏差。透過持續比對模型預測與黃金資料集結果,團隊才能即時察覺效能衰退,並進行迭代更新,確保系統長期穩定運作。

從小規模應用起步,漸進擴展至核心業務

吳振和分享,在實際輔導企業導入 AI 的經驗中,最常見的挑戰來自於「期待落差」。許多企業誤認為概念驗證(PoC)階段即可呈現完整的產品原型,然而實際情況顯示,若企業未能建立完善的資料架構與流程基礎設施,即使短期內展現亮眼成效,也難以確保長期營運的穩定性與可持續性。

也因此他建議企業在規劃 AI 導入時,應採取漸進式策略,從小規模應用場景著手,逐步擴展至核心業務領域。企業應將 PoC 定位為整體產品開發生命週期的重要環節,而非獨立的一次性專案。

AI 的導入不僅是一場技術升級,更是企業組織文化與決策流程的轉型工程。唯有從資料治理、流程優化到人才培訓同步布局,才能確保 AI 能在企業內部真正「落地生根」,創造長期商業價值,成為真正的智慧代理人。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓