重點一 :Cisco 發表 Silicon One G300 交換晶片,頻寬達 102.4 Tbps,正面挑戰博通與輝達搶攻 6,000 億美元 AI 基礎設施商機。
重點二 :新晶片支援最多 12.8 萬顆 GPU 部署、全液冷設計節能近 70%,預計 2026 下半年量產出貨。
重點三 :G300 採台積電 3 奈米製程,內建「智慧集體網路」技術,可將 AI 運算工作完成時間縮短 28%,網路吞吐量提升 33%。
Cisco(思科)於 2 月 10 日在阿姆斯特丹舉行的 Cisco Live EMEA 大會上,發表新一代交換晶片 Silicon One G300,以 102.4 Tbps(兆位元每秒)的頻寬直接挑戰博通 (Broadcom) 的 Tomahawk 6 與輝達 (NVIDIA) 的 Spectrum-X 等競品,搶攻規模預估達 6,000 億美元(約合新台幣 18.9 兆元)的 AI 基礎設施市場。
這是 Cisco 近年在自研晶片領域最大手筆的攻勢佈局。隨著 AI 訓練與推論叢集規模持續爆發,網路性能已成為制約 GPU 效能的關鍵瓶頸,Cisco 正嘗試將「網路智慧」變成差異化武器。
「智慧集體網路」技術:不只比頻寬,更比誰聰明
G300 採用台積電 (TSMC) 先進 3 奈米製程製造,最大特色是一套名為「智慧集體網路」(Intelligent Collective Networking)的技術組合,包含三大核心功能: 業界最大的 252MB 共享封包緩衝區、基於路徑的負載平衡,以及主動式網路遙測。
Cisco 將這些功能比喻為網路的「避震器」。當 AI 叢集中數萬顆 GPU 同時運作時,常會產生突發性的巨量資料流,G300 能在微秒等級內自動重新導引資料流量,避免壅塞導致整體計算停擺。Cisco 表示,模擬測試顯示網路吞吐量可提升 33%,AI 運算工作完成時間可縮短 28%。
Cisco 通用硬體事業群執行副總裁 Martin Lund 接受《路透》專訪時指出,當網路連接數以萬計或數十萬計時,偶爾的延遲就能拖慢整個 AI 訓練任務,自動重新導引是「必要功能,不是加分項」。
液冷、高密度、最少交換器:重新定義 AI 資料中心網路
G300 將驅動兩款新型交換器:Cisco 8133(氣冷)與 Cisco 8132(全液冷),均提供 64 埠 800Gb/1.6Tb 配置。液冷版本是 Cisco 首款商用水冷交換器,能源效率比前一代提升近 70%,過去需要 6 台的頻寬,現在單台就能提供。
更具戰略意義的是規模優勢:G300 支援最多 512 埠擴展,在典型部署中,僅需 750 台交換器即可連接 12.8 萬顆 GPU,過去同樣規模需要約 2,500 台。此外,G300 支援 P4 可程式化架構,設備部署後仍可透過軟體升級新功能,保護長期投資。
Cisco 總裁暨首席產品長 Jeetu Patel 表示:「我們正從晶片到系統、到軟體的全站式創新,為從超大規模雲端到企業的每一類客戶建構 AI 基礎建設。」
競爭白熱化:Ethernet 路線能否挑戰 NVIDIA 的 InfiniBand?
AI 網路晶片市場的競爭正在升溫。NVIDIA 上個月發表新一代系統時,其中一顆關鍵晶片就是專門的網路晶片,而博通的 Tomahawk 系列則是資料中心網路的主流選擇。Cisco 主打更開放的 Ethernet 標準,嘗試以「智慧」而非單純「頻寬」作為賣點。
研究機構 Dell'Oro Group 副總裁 Sameh Boujelbene 評價,G300 不只是典型的遞增升級,而是將智慧直接推入交換晶片,解決了大型 AI 叢集中不可預測的東西向流量、壅塞熱點與舊式網路的擴展限制。
G300 預計於 2026 年下半年量產出貨,屆時將正好趕上 NVIDIA 與 AMD 次世代伺服器機架系統的上市期。
資料來源:Reuters、Cisco Newsroom、SiliconANGLE、Network World
本文初稿為AI編撰,整理.編輯/ 李先泰
