想像一個場景:一大片荒蕪的空地,或是企業大樓旁不起眼的停車場,幾輛聯結車駛入,吊臂放下數個20尺貨櫃。
沒有挖地基、搭設鷹架的工程時間,人員接上電源與冷卻管線,短短三個月後,不起眼的「鐵盒子」內,伺服器開始以驚人的速度運轉,訓練世界上最先進的AI模型。
科幻電影一般的場景,是AI時代正在崛起的商機「模組化資料中心」,把價值連城的AI伺服器、電源、散熱設備,通通塞進鐵皮貨櫃裡,關鍵原因是兩個字:速度。
「客戶往往因為機櫃缺了一個關鍵零件,而讓價值數億美元的機櫃堆在倉庫裡等待。」在日前的一場公開活動中,輝達(NVIDIA)執行長黃仁勳轉頭對著美超微(Supermicro)執行長梁見後說出的這句話,道出產業目前最深層的焦慮。
「GPU迭代太快了,你的資料中心蓋個3年,已經跟別人是兩代差異了。」東元電機智慧能源事業群總經理郭明倫指出,在機電業耕耘22年的東元,有幫多家大廠建設資料中心的經驗,近年能感受到,客戶壓的完工時間越來越短,「甚至有客戶跟我們喊5個月完工!有些長交期設備根本沒辦法這麼快來。」東元電機能源產品事業部代理部長陳建廷直言。
由美國政府和科技巨頭(包括 OpenAI、軟銀和甲骨文)領軍的AI資料中心建設計畫「星際之門(Stargate)」,預計在未來幾年內豪擲5,000億美元,在美國打造一座擁有數百萬顆GPU的超級電腦,他們對供應鏈也喊出「3個月內交付」、「易於海外部署」的艱難任務。
這股由上而下的集體焦慮,讓傳統兩到三年的蓋法幾乎出局,快、節能、可複製的模組化資料中心正緩步登上主舞台。根據Global Market Insights今年的報告,全球模組化資料中心市場將在2032年前突破950億美元,幾乎是現在的三倍規模,正悄悄重塑整個供應鏈的布局範圍。
模組化資料中心是什麼?
傳統資料中心的建設現場,是一個充滿鋼筋水泥、塵土飛揚的工地,需要協調土木建築、高壓機電、精密空調等多種工班,蓋好後機台進駐,又是一個部署、測試的過程。
陳建廷指出,傳統蓋法從布建到上線使用,至少需要18到24個月,而模組化資料中心,大概可以縮短6個月以上的時間,大約9-12個月之內就可以蓋完。
能加速的核心邏輯,就是預製化(Prefabricated),「就像在組樂高一樣,每一個部分出廠前都已經做好,到現場再組裝起來。」資策會產業分析師陳奕伶形容。將資料中心的關鍵組成部分,包含伺服器機櫃、電力系統(UPS、配電盤)、冷卻系統(液冷、空調)、監控系統等,預先在工廠內整合成一個個獨立的貨櫃,組裝測試過一遍,運到現場後,只需要接上電力、網路和水源,測試沒問題就能立即啟用。
模組化資料中心的兩種模式
這種「預製化」的資料中心,目前演化出兩種模式。
1.貨櫃型資料中心:貨櫃中裝的是具備完整功能的迷你資料中心,卡車拖了就走,在空地牽上電力和水的管線獨立運行。
2.預製模組:將龐大的電力室或冷卻站做成模組,配合建築內部的規劃,完工後擺設進去,也能大幅壓縮現場施工時間。
誰在急?從科技巨頭、主權國家到轉型企業都想用
速度快,又方便彈性擴充,AWS、微軟(Microsoft)、OpenAI、Meta這些搶著擴大建造資料中心的雲端服務商自然是第一批採用。除了星際之門是典型案例之外,2022年IDC更指出,Meta在2023年部分建案將停工,目標是全面改為液冷與模組化設計的新一代AI資料中心架構。
第二層需求則來自「主權AI」。能源管理和自動化解決方案供應商、施耐德電機關鍵電力事業部總經理魏仕杰觀察,在印尼、馬來西亞等東南亞國家,政府為了掌握算力話語權,往往由國家提供土地與電力,讓企業快速建置算力中心,由於當地缺乏熟練的建築工班,直接進口模組化機房,就成為最快路徑。
第三層則是想自建模型的大型企業,陳建廷指出,有些大企業願意自己買地、蓋專屬自己的資料中心,規模通常較小,需求可能在5MW以下,或是約500-600平方公尺的大小機房,成為貨櫃型資料中心的重要買家。
這類業者主要是金融、製造、電信等產業,不想把機敏資料丟到雲端,希望擁有資料的絕對控制權。郭明倫也透露,像日本這類嚴重缺工的國家,或是中東、東南亞等新興市場,因為當地缺乏熟練的建築與機電工人,直接買「蓋好的」模組運過去安裝,成為企業最務實的解方。
模組化資料中心的難題:當算力密度暴增,小貨櫃真的裝得下嗎?
預製模組化資料中心發展多年,不過貨櫃型資料中心的市場,目前仍有許多技術上的難題待解,尤其是AI時代帶來的物理質變——「熱」與「電」的龐大需求。
陳奕伶分享了一個發生在台灣南部某間大學的真實案例,該校為了研究需求,斥資採購了4台輝達的高階AI伺服器,沒想到一上線卻是頭痛的開始,幾台AI機器瞬間把電力額度全部吃光,這讓原本設計可以放幾十台、甚至上百台傳統伺服器的空間,瞬間只剩兩櫃可運作。陳奕伶形容,「其他空間就算放了機器也『沒電可用』,現在空曠到你可以在裡面騎腳踏車。」
從這個案例足以看見AI帶來的物理障礙,單一機櫃功耗從過去CPU時代的4kW,暴增至GPU時代的100kW以上,傳統寬敞的機房都已經捉襟見肘,更何況要將這些高熱怪獸,塞進空間極其有限的20尺貨櫃裡,這無疑是對液冷技術、電力密度與結構設計的極限挑戰。
若解決貨櫃內部的散熱,貨櫃外部的配套設施也是難題。實際負責運營資料中心、全台最大網際網路交換中心的是方電訊總經理劉耀元,對市場提出了務實的觀察,「你把貨櫃拖到停車場,接上水電就能跑,那叫POC(概念驗證),那不叫服務。」
他拿起筆,在白板上畫出了資料中心運作圖,「如果貨櫃沒電了怎麼辦?裡面的電池頂多撐幾分鐘,發電機啟動需要時間,中間的空窗期誰負責?」真正的機房,承諾的是99.999%的不斷電服務,這背後需要龐大的備援系統支撐,包含24小時待命的發電機油槽、冰水主機、雙迴路供電等。「這些東西,你總不能把水塔也拖著走,高壓變電站也拖著走吧?」
是方電訊技術工程處副總經理周衍補充。如果為了遷就一個20尺的貨櫃,還得在旁邊蓋一堆比貨櫃大上數倍的周邊設施,甚至需要整地、申請高壓用電,那就失去了「隨插即用」的意義。
因此,劉耀元認為,市場將出現明顯的分流: 純粹的「貨櫃型」將主攻邊緣運算、企業專網、礦場探勘等「斷線一下還能接受」的利基市場 ;而 針對大型雲端服務供應商的主戰場,則會繼續採用「預製化建築模組」 。
也就是說,短期內資料中心外觀還是以建築為主,只是內部改為可以快速抽換、靈活擴充的標準化貨櫃。
台廠「轉骨」時刻,三路大軍搶灘950億美元商機
這波模組化資料中心熱潮還沒在台灣點燃,不過海外商機和大客戶的需求,已經讓台廠進入開始布局「轉骨」。
模組化資料中心象徵著完整的解決方案,從L10(伺服器)、L11(機櫃)的代工財,跨入L12(資料中心叢集)的機會點,需要業者有能力整合資料中心「牆內」的IT設備,與「牆外」的機電設施。
面對這場戰局,目前台廠演化出截然不同的攻防路徑。例如台達電憑藉核心的電源與散熱技術,做到貨櫃內「除了伺服器,其他全都做」的一站式整合;鴻海選擇與老牌機電大廠東元換股結盟,借力補足美國當地的機電認證與施工資源;緯穎則透過與馬來西亞楊忠禮集團(YTL)建設600MW資料中心的實戰,從設備供應商跨足到L12架構設計。
誰能最快把積木組好、最完美地解決IT設備與機電設施的整合難題,誰就能在這場預估950億美元的未來市場中搶下一席之地,
