輝達公布未來3年產品路線圖!推跨資料中心連結技術、矽光子交換器,直攻AI基礎建設
輝達公布未來3年產品路線圖!推跨資料中心連結技術、矽光子交換器,直攻AI基礎建設

重點一: 輝達公布延伸至2028年的架構路線圖,涵蓋GPU、CPU、網路與機櫃,展現完整資料中心藍圖。

重點二: 輝達提出「Scale-Across」新概念,讓多個資料中心透過新技術互聯,如同單一超級電腦般運作。

重點三: 未來企業能夠透過NVLinkFusion平台,以及SpectrumXGS矽光子交換器,落實「Scale-Across」的目標。

AI晶片巨頭輝達(NVIDIA)於22日舉行亞太區媒體分享會,揭露未來的技術方向。

在分享會中,輝達不僅公開規劃至2028年的完整產品路線圖,還提出「Scale-Across」新概念,這指的是,輝達將透過新一代乙太網路技術,把多個分散式資料中心,組合成一座邏輯上的單一AI超級電腦,作為「Scale-Up(向上擴充)」與「Scale-Out(向外擴張)」之外的第三種擴張方式。

另外,輝達也預告相關交換器與開放平台技術。這些動作顯示,輝達不再只是GPU銷售商,而是打算成為AI基礎建設的建構者。

《數位時代》整理本次分享會的三大重點:

亮點一:公開架構路線圖,回應算力需求持續飆升

隨著推理AI(Reasoning AI)的興起,單個GPU已難以支撐快速膨脹的算力需求。輝達加速運算產品總監Dave Salvator指出:「推理如今已經成為資料中心等級的挑戰。」

為了因應這樣的市場需求,輝達公布了橫跨GPU、CPU、網絡與系統的完整架構藍圖,並首次將未來發展延伸至2028年。這份路線圖不只是產品規劃,更是回應「AI時代的算力需求將超越單一硬體」的挑戰,並宣告輝達將為Gigawatt(GW)級AI資料中心奠定基礎。

NV會前分享

打開這份藍圖,可以看到:
- GPU架構: 從Blackwell Ultra演進至Rubin、Rubin Ultra,最終走向Feynman。
- CPU架構: 從Grace升級到Vera。
- 網路: Spectrum交換器與CX網卡將同步迭代。
- 系統: 機櫃設計從Oberon進化到下一代Kyber。

亮點二:介紹Scale-Across,從單一伺服器走向多資料中心

有了各種硬體產品,企業要怎麼將這些產品組合成大型的AI基礎設施呢?Salvator介紹了一個嶄新的連結模式:「Scale-Across」。

目前企業建構AI基礎設施時,主要採取兩種連結模式:
- 垂直擴展(Scale-up): 在同一個機架中垂直擴展。這種模式反應快,但規模有限。
- 水平擴展(Scale-out): 橫跨多個機架來連結。

NVIDIA hot chips前分享會

然而,隨著AI模型規模變大,兩個硬體極限問題浮上檯面。首先是耗電過高,每個機房的電力需求動輒百兆瓦,單一資料中心已難以支撐;其次是空間不足,機房塞不下百萬顆GPU,必須分散部署。因此跨資料中心的連結,成為大型AI基礎建設的新挑戰。

面對這項挑戰,輝達進一步提出「Scale-Across」概念來解決。Scale-Across是讓多個資料中心透過新一代交換技術互聯,形成如同單一超級電腦的運算體系。換言之,AI運算不再受限於一棟資料中心,而是跨越區域與距離運作。

延伸閱讀:MIT報告揭95%企業投資AI「零報酬」,只有5%能賺錢!「那5%」的企業做對了什麼?

亮點三:Spectrum XGS與NVLink Fusion作為落地手段

要實踐Scale Across,輝達介紹兩項關鍵技術,分別解決跨距離互聯與開放生態整合的需求。

Spectrum XGS:Gigascale交換器

Spectrum XGS是輝達為Scale Across所設計的核心交換器,名稱中的XGS代表Gigascale,象徵它專為大規模資料中心設計。它的最大特點,是採用矽光子技術(CPO,Co-PackagedOptics),取代傳統銅線方案,實現跨距離光學互連。

Salvator介紹,這項技術的效益相當明顯:能效比銅線方案提升3.5倍,部署效率加快30%,並能在跨數百公尺至數百公里的距離下維持低延遲與高吞吐。這讓多個資料中心能夠被串接起來,如同單一運算單元般運作。

Salvator表示:「Gigawatt級資料中心的時代已經來臨,規模正邁向數十萬顆GPU。」而SpectrumXGS正是為這個時代打造的落地基礎。

NVLink Fusion:開放生態

與此同時,輝達也宣布NVLink Fusion將會更加開放。將原本僅能應用於自家GPU的NVLink技術,開放給第三方CPU與加速器使用,協助各式運算單元整合。

Salvator說:「我們現在要把NVLink技術提供給其他公司,讓他們能在自家的加速器或CPU上建構平台並擴展。」配合Dynamo、TensorRT-LLM與CUDA-X等軟體工具,輝達正在推動一個更廣泛的開放生態。

從晶片到資料中心

輝達的戰略重心正從「提供最快的GPU」轉向「建構最強的資料中心」。透過架構路線圖,它展現了回應算力需求的完整藍圖;透過Scale-Across,它宣告進入多資料中心時代;透過Spectrum XGS與NVLink Fusion,它展示了實際落地的手段。

雖然這場分享會未公布具體效能數據,但訊息已十分明確:輝達要做的,不只是晶片,而是整個AI資料中心的基礎建設。隨著推理型AI的需求持續爆發,資料中心將成為AI工廠的基本單位,而輝達也將在其中扮演最核心的角色。

延伸閱讀:美國科技職缺消長大統計:哪些職位變熱門、什麼工作快過氣?5年以下資歷超難找工作?

本文初稿由AI編撰,編輯:王聖華

關鍵字: #Nvidia

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓