重點一:Qualcomm(高通)宣布推出資料中心用AI加速器,股價大漲11%,挑戰NVIDIA(輝達)與AMD。
重點二:新晶片AI200(2026)與AI250(2027)鎖定推論(Inference),提供整櫃液冷架構,主打功耗與總持有成本優勢。
重點三:單櫃功耗約160kW、單卡支援768GB記憶體;高通稱可模組化供應,與雲端業者或其他晶片商「混搭」。
高通宣布將推出面向資料中心的AI加速器產品線,正式跨入以AI為核心的伺服器市場,消息公布後股價跳升11%,顯示資本市場對其挑戰現有格局的期待。
目前,AI加速器市場由NVIDIA(輝達)主導、AMD位居次位,且Google(谷歌)、Amazon(亞馬遜)、Microsoft(微軟)與OpenAI等大型雲端與模型供應商也在自研加速器。高通過去重心在行動與無線晶片,此次轉向資料中心,意在以差異化的能效與成本優勢切入AI基礎設施賽道。
產品路線與技術定位:推論優先、整櫃液冷
高通指出,將在2026年推出AI200、並在2027年推出AI250,兩者皆可整合為占滿一整個機櫃的液冷系統,對標NVIDIA與AMD已提供的整櫃GPU方案(可讓多達72顆晶片協同運作)。
與許多競品著重「訓練(Training)」不同,高通新品明確聚焦「推論(Inference)」應用,即在雲端環境高效執行已訓練完成的AI模型。
其資料中心加速器延續自智慧型手機平台中的Hexagon NPU(神經處理單元)技術脈絡,宣稱在功耗、總持有成本(TCO)、以及記憶體處理方式等方面具優勢。官方並表示,單卡支援768GB記憶體容量,規格高於部分現有競品,藉此提升大型模型推論的承載能力與吞吐表現。
高通同時發布「超大規雲商等級」AI軟體堆疊,從應用層至系統軟體層優化推理,支援主流機器學習框架與推理引擎、生成式AI框架,以及針對LLM/LMM的推理優化技術(如disaggregated serving)。
開發者可透過「高通高效Transformer函式庫」與「高通AI推理套件」進行Hugging Face模型的一鍵導入與部署,並取得現成AI應用、代理、工具、函式庫、API與服務,以利從實驗到營運化的落地流程。
商業模式與供應策略:功耗160kW、模組化「混搭」
在系統設計與營運面,高通表示整櫃解決方案的功耗約為160kW,與部分NVIDIA整櫃GPU系統的高用電水位相當;同時強調其方案有望降低雲端服務供應商的營運成本。
供應策略上,高通除了提供「整櫃」外,也將可拆分提供AI加速器、CPU等元件,讓大型雲端業者或超大規模資料中心(Hyperscaler)自行設計機櫃,甚至不排除NVIDIA或AMD等同業在特定零組件上成為其客戶,實現「整套或混搭」的採購彈性。
值得注意的是,目前高通未透露晶片、加速卡或整櫃的定價、以及每櫃可容納的NPU數量。
技術佈署:200MW機櫃、生成式AI推論加速
另在國際拓展方面,沙烏地阿拉伯Humain與高通宣布達成重大合作,將在沙烏地阿拉伯部署世界首創、「Edge-to-Cloud(邊緣到雲)」完整優化的混合AI推論基礎設施,目標把沙國打造成全球人工智慧樞紐。
依計畫,HUMAIN將自2026年起導入200 megawatts(200百萬瓦)的高通AI200與AI250機櫃解決方案(Rack Solutions),在沙國及全球提供高效能AI推論服務。
雙方亦將針對企業與政府單位的需求,開發客製化解決方案,包含資料中心運維、模型佈署、服務交付等層面,讓AI推論能在不同產業(如公共服務、製造、交通、金融)加速上線、落地應用,並確保TCO與能效最優。
此舉也配合沙國技術生態建設與人才培育,為後續產業化擴張提供基礎設施與標準作法。
本文初稿為AI編撰,整理.編輯/ 李先泰
