自從 OpenAI 於 2022 年底發表 ChatGPT 後,掀起「生成式 AI」的浪潮。儘管當時的產品仍有不少不足之處,生成式 AI 已陸續被大眾、企業與醫療機構採用。
AI 技術快速發展、功能日益增加,眾多開發 AI 技術的新創公司也紛紛加入市場。AI 市場欣欣向榮,使用者數量快速攀升。以 OpenAI 為例,其全球使用者數已達 8 億戶,市場規模極為龐大。
AI需要算力,算力需要GPU
AI 能夠持續發展運作,背後最重要的支撐是「算力」。
算力的基礎來自以 GPU、ASIC 等晶片構成的 AI 伺服器。OpenAI 開展其 AI 事業時,使用輝達(NVIDIA)的 GPU 訓練其「大語言模型」。
ChatGPT 爆紅後,市場積極採購以輝達 GPU 架構的 AI 伺服器。
不僅 AI 技術開發者需要以 AI 伺服器所構成的算力,微軟、亞馬遜、Alphabet、Meta 等雲端業者也需要龐大算力,才能服務其廣大客戶。
從輝達近年的營收來看,2022 年營業額為 269.7 億美元(與 2021 年的 269.1 億美元持平),2023 年激增至 609.2 億美元,2024 年再度跳升至 1,305 億美元。
由此可見,輝達深受 AI 時代來臨的惠益,營收從數百億美元跳升至千億美元級別。
輝達的 GPU 是構建 AI 資料中心的核心元件。從其營收可見,AI 基礎建設自 2023 年起如火如荼地興建,以迎接 AI 時代。
2024 年全球 AI 資料中心的投資規模約 570 億美元,預估到 2034 年,AI 相關基礎設施的總投入將超過 7 兆美元,呈現三級跳式的成長。
GPU需要電力,電力需要電廠
為了因應 AI 應用程式對算力的「渴求」,AI GPU 的效能快速提升,伴隨而來的是功耗亦大幅攀升。
傳統資料中心的伺服器每機架功率約 10–15 kW;AI 專用資料中心的伺服器每機架功率約 40–250 kW。加上機架密度大幅提高,冷卻系統升級成為必要,並從傳統的氣冷轉向液冷或浸沒式冷卻。
AI 資料中心對電力的需求極大,因此電力供給成為其「任督二脈」——沒有電力就沒有算力。此外,電力輸送網路也亟需更新升級,以應付龐大需求。
AI投資是千億等級大坑
AI 資料中心自 2025 年起,將呈現蛙跳式成長。
為了擴展並鞏固市場,輝達投資 OpenAI 1,000 億美元,建設 10 GW 資料中心;AMD 與 OpenAI 亦達成協議,以股權方式建設 6 GW 資料中心。
此外,黃仁勳奔走各國推廣「主權 AI」,促銷輝達 GPU,同步帶動 AI 資料中心的建設。
AI 資料中心的投資金額龐大,每 1 GW 的投資約 500 億美元。僅輝達投資 OpenAI 建設的 10 GW AI 資料中心,投資金額就高達 5,000 億美元。這樣的數字在幾年前幾乎難以想像,如今卻不再稀奇。
AI 時代對微軟、亞馬遜、Alphabet、Meta 四大雲端業者而言既是機遇也是挑戰。它們作為 AI 的「通路」,讓使用者能更便捷地存取 AI 資料。除提供雲端服務外,四大業者也積極開發 AI 應用程式,企圖成為 AI 服務的供應商。
四大雲端業者的資本支出,2021 年約 1,100 億美元,2022 年增至 1,400 億美元,2023 年約 1,300 億美元,2024 年激增至 2,000 億美元,今年預估將超過 3,000 億美元。
這四大雲端業者除了自建雲端算力,也租用其他提供 AI 資料中心的業者之算力。
算力過剩,是AI泡沫一大危機
在市場普遍樂觀、大舉興建 AI 基礎建設之際,輝達忙於 GPU 出貨,鴻海、廣達等 AI 伺服器組裝廠忙於生產,各地 AI 伺服器中心忙於土建與機房施工、裝設伺服器等。
通常一座 AI 資料中心的建設期約兩年;等到一切就緒,卻可能發現電力供應接不上,導致建設時程延誤。
全球各地(尤其美國)正積極投入 AI 基礎建設。二、三年後這些設施陸續上線時,是否會突然面臨算力過剩、供過於求的窘境?
責任編輯:李先泰
