重點一:輝達(NVIDIA)的護城河不是鎖定產能,而是說服整條供應鏈為一個尚未到來的兆美元市場提前投資。
重點二:黃仁勳罕見地正面回應 TPU 威脅,以 TCO 數據挑戰 Google 和 AWS 公開基準測試。
重點三:對中國晶片出口的論述核心是「恐懼驅動的禁令會把開源生態系推向非美國技術堆疊」。
2026 年 4 月 15 日,黃仁勳 (Jensen Huang) 坐在 Dwarkesh Patel 的鏡頭前,用一句話定義了輝達:「輸入是電子,輸出是token,中間是 NVIDIA。」
這不僅僅是修辭。據最新財報,輝達已與晶圓代工、記憶體和封裝廠簽下近 1,000 億美元的採購承諾;半導體分析機構 SemiAnalysis 報導,實際承諾可能高達 2,500 億美元。
這些數字的意義不在於「鎖定產能」。黃仁勳解釋了一套更精密的機制:他花大量時間直接向上游 CEO 說明 AI 產業的規模預測,讓他們願意為輝達的需求擴建產能:「為什麼他們願意為我投資,而不是為別人?因為他們知道我有能力買下他們的供給,再透過我的下游賣出去。」
GTC 大會在這套體系中扮演的角色,與其說是產品發表會,不如說是供應鏈信心的年度校準儀式。上游看見下游的需求規模,下游看見上游的產能承諾,所有人同時看見 AI 新創的爆發速度。
黃仁勳說,他的主題演講之所以總帶點「教育」色彩,是因為他必須確保整條供應鏈理解「什麼東西正在逼近我們,為什麼,以及規模多大」。
具體案例是先進封裝技術 CoWoS 的瓶頸化解。兩年前,CoWoS 是制約 AI 晶片出貨的最大障礙。輝達的做法是連續翻倍投資,迫使台積電 (TSMC) 將 CoWoS 從「特殊製程」重新定位為「主流運算技術」,產能規劃與邏輯晶片同步擴張。黃仁勳也提到與美光 (Micron) 的合作:他在 AI 爆發前就向美光 CEO 展示了對 HBM 記憶體的需求預測,美光因此提前下注。
更前瞻的佈局在矽光子 (silicon photonics)。輝達已與 Lumentum、Coherent 等光通訊廠合作,在台積電體系內建立全新的矽光子供應鏈,甚至將專利授權給整個生態系以保持開放。這套「預取瓶頸」(prefetching bottlenecks) 的方法論,是黃仁勳對「沒有任何瓶頸會持續超過兩三年」這句話的底氣來源。
與台積電的 30 年握手協議
這套方法論的深層基礎,是黃仁勳與供應鏈長期建立的非典型信任關係。他透露一個驚人細節:輝達與台積電合作近 30 年,兩家公司之間「沒有法律合約」。「有時候我佔便宜,有時候我吃虧,但整體而言,這段關係不可思議。我可以完全信任他們、完全依賴他們。」這種以信任取代合約的模式,讓輝達得以在高度不確定的未來進行超大規模產能承諾。
他也揭示了一個與業界常態截然不同的定價原則:輝達從不根據供需調整價格。「你報了價就是報了價。如果需求暴增,那就這樣。」黃仁勳認為,成為產業可預測的基礎比短期利潤最大化更重要。
同樣的穩定邏輯也體現在 GPU 分配上,他否認了外界盛傳的 Larry Ellison 和 Elon Musk 晚餐「跪求 GPU」說法:「我們絕對有一起吃晚餐,而且是很棒的晚餐。但他們從未跪求 GPU。他們只需要下訂單就好。」
但他也坦承了一個無法用資本解決的瓶頸:水電工和電工。「如果末日論者讓人們不敢當軟體工程師,我們就會短缺軟體工程師。十年前有人說放射科醫師會第一個被 AI 取代,結果呢?我們現在最缺的就是放射科醫師。」
為什麼 TPU 不敢來 MLPerf?
Dwarkesh 丟出了一個尖銳的問題:全球前三大 AI 模型中,Claude 和 Gemini 都在 TPU 上訓練,這對輝達意味著什麼?
黃仁勳的回應策略是拉高維度。他強調輝達做的是「加速運算」(accelerated computing),不是張量處理器。從分子動力學、量子色動力學到流體動力學,CUDA 生態系的應用範圍遠超任何 ASIC。「我們支援世界上所有類型的應用程式。這就是優勢。」
沒有 Anthropic,TPU 成長從何而來?
但他最具爆炸性的論點,是對 Anthropic 角色的直接定義。Dwarkesh 指出 Anthropic 剛宣布與 Broadcom 及 Google 達成數 GW 規模的 TPU 合約,這是否代表趨勢?
黃仁勳的回應極為尖銳: 「Anthropic 是一個獨特案例,不是趨勢。沒有 Anthropic,TPU 成長從何而來?百分之百是 Anthropic。沒有 Anthropic,Trainium 成長從何而來?百分之百是 Anthropic。」 這句話直接質疑了 Google TPU 和 AWS Trainium 作為獨立商業平台的可行性。
他進一步拆解了自建晶片的成本迷思。外界常假設繞過 NVIDIA 70% 的毛利率就能大幅省錢,但黃仁勳指出 Broadcom 等 ASIC 設計公司的毛利率也高達 65%:「你到底省了什麼?」
一個 300 億美元的遺憾
而 Anthropic 之所以深度綁定非 NVIDIA 平台,根源其實是輝達自己的戰略失誤。
黃仁勳罕見地自我批評:當年 Anthropic 需要供應商等級的巨額投資來取得算力,但輝達當時的規模無法支持數十億美元的投入。「我沒有深刻理解他們別無選擇,沒有 VC 會投入 50 到 100 億美元。這是我的失誤。」
Google 和 AWS 趁勢入場,以鉅額投資換取 Anthropic 使用其自研晶片。據報導,輝達後來投資 OpenAI 高達 300 億美元、Anthropic 100 億美元,試圖亡羊補牢。「如果我能回到過去,我早就投了。但我不會再犯同樣的錯誤。」
在 TCO(總擁有成本)上,黃仁勳同樣發起正面挑戰。他直接宣稱:「輝達的每瓦效能全球最佳,沒有任何單一平台能展示更好的效能-TCO 比。TPU 不會來 MLPerf,Trainium 不會來 InferenceMAX。」他點名 SemiAnalysis 的 InferenceMAX 基準測試,邀請所有競爭對手公開比較推論成本。
這番話的背景是,輝達 60% 營收來自五大超大規模客戶(Google、Amazon、Microsoft、Meta、Oracle)。Dwarkesh 質疑:這些客戶有能力自建軟體堆疊,CUDA 的護城河是否正在瓦解?
黃仁勳的反駁有兩層。第一層是技術深度:「NVIDIA 的 GPU 像 F1 賽車,不是人人都能開到極限。我們派駐在 AI 實驗室的工程師數量驚人,常能幫客戶再提升 2 到 3 倍效能。」
第二層是商業邏輯:「大部分我們在 AWS 和 Azure 的業務是外部客戶,不是內部使用。」換言之,超大規模客戶買 NVIDIA 不只是為了自用,更是為了租給他們的客戶。
中國晶片禁令的反直覺邏輯
訪談中最激烈的交鋒發生在中國議題。Dwarkesh 以 Anthropic 的 Mythos Preview 模型為例:這個模型發現了數千個高嚴重性安全漏洞,甚至在以安全著稱的 OpenBSD 中找到一個存在 27 年的漏洞。如果中國用 AI 晶片訓練出同等能力的模型並大規模部署,是否威脅美國國安?
黃仁勳的回應直接挑戰了禁令的前提假設。他指出三個事實:第一,Mythos 訓練使用的算力規模和類型,中國已經擁有;第二,中國製造全球 60% 以上的主流晶片,擁有全球約 50% 的 AI 研究人員;第三,中國有大量閒置的資料中心和廉價能源。「AI 是平行運算問題。為什麼不能用 4 倍、10 倍的晶片?能源對他們來說幾乎免費。」
他進一步論證:7 奈米晶片的能力相當於 Hopper 世代,而今天多數前沿模型仍在 Hopper 上訓練。華為 2025 年創下史上最高單年營收,已展示矽光子互連技術。「你認為中國沒有 AI 晶片,這個想法完全是胡說八道。」
真正的威脅:開源生態系的歸屬
但黃仁勳最具說服力的論點不是技術層面的,而是生態系層面的。他警告:如果美國的封鎖政策迫使全球開源 AI 生態系轉向非美國技術堆疊,那才是對美國利益的真正傷害。「如果出現兩個生態系:開源生態系只跑在外國技術堆疊上,封閉生態系跑在美國技術堆疊上,我認為那對美國是災難性的結果。」
他用一個假設場景收束論點:「如果 DeepSeek 有一天先在華為硬體上推出,那對我們國家是災難。」這句話的潛台詞是:禁令非但沒有阻止中國的 AI 發展,反而可能加速中國建立獨立於美國的完整技術堆疊。
朗訊的前車之鑑
黃仁勳還搬出了一個歷史教訓。他將晶片禁令類比為導致美國電信設備業崩潰的政策失誤:「你所主張的這種政策,其結果是把美國電信產業管出了全球市場(policied out),到了我們連自己的電信網路都不再掌控的地步。」
他指的是朗訊 (Lucent) 等美國電信設備商在政策與市場壓力下衰落,最終讓華為和 Ericsson 主導全球電信基礎設施的歷史。在他看來,晶片禁令正在重演同樣的劇本:以保護國安為名,實則削弱美國產業的全球領導地位。
單一架構的賭注與邊界
訪談尾聲,Dwarkesh 問了一個看似技術性、實則觸及核心戰略的問題:為什麼不同時開發多種晶片架構?
黃仁勳的回答出人意料地坦率:「我們可以做,只是沒有更好的主意。我們在模擬器裡全部模擬過了,證明都更差。」這句話透露了一個重要訊號:輝達的單一架構策略不是資源限制,而是工程判斷。他的信心來源是極端的協同設計能力:同時在處理器、系統、互連架構、函式庫和演算法五個層面進行最佳化。
唯一的例外是輝達最近與推論加速器新創 Groq 達成的技術授權合作。黃仁勳解釋,這是因為一個新的市場區隔正在浮現:高價值 token。「如果我能給軟體工程師更快的回應速度,讓他們更有生產力,我願意付更多錢。」不同回應時間可以有不同定價,這拓展了推論市場的帕雷托前沿。
但這也暴露了輝達策略的邊界條件。當 AI 工作負載的形態(而非演算法)發生根本變化時,單一架構的效率優勢可能不再成立。黃仁勳自己也承認:「如果工作負載發生劇烈改變,我們可能會決定增加其他加速器。」
這意味著輝達的護城河本質上是一個關於 AI 運算形態穩定性的賭注。如果 AI 的發展路徑從 transformer 和 MoE 大幅偏離,輝達將面臨比 TPU 競爭或中國禁令更根本的挑戰。
資料來源:Dwarkesh Podcast
本文初稿為AI編撰,整理.編輯/ 李先泰
