重點一:輝達稱其 GPU 平台「領先一個世代」,可在各種環境執行各類 AI 模型,回應外界對 Google TPU 競爭的疑慮。
重點二:受到臉書母公司 Meta 可能採用 Google TPU 的報導影響,輝達股價當日下跌約 3%,市場關注其在 AI 基礎設施的主導地位。
重點三:Google 表示 TPU 與輝達 GPU 的需求都在加速;最新的 Gemini 3 用 TPU 訓練,但也能在輝達平台上執行,競合關係更為明顯。
輝達最近在 X 上丟出一句話:「我們領先整個業界一個世代,而且是唯一能把所有 AI 模型在各種地方都跑起來的平台。」這段話明顯是回應市場疑慮:Google 的 TPU 聲量升高,是否會動搖輝達在 AI 硬體的霸主地位?
引爆點是:有報導稱 Meta 可能與 Google 合作,在資料中心採用 TPU。結果輝達股價當天回檔約 3%。雖然分析師普遍認為,輝達以 GPU 在 AI 晶片市場仍握有逾九成的市占率,但「TPU 更便宜?交期更穩?雲端資源更好租用?」這類現實考量,讓雲端業者越來越傾向「兩邊都用」。
為了回應外界疑慮,輝達在貼文裡把核心差異講白了:ASIC(如 Google TPU)為特定公司或用途客製,性能不差,但彈性有限;相較之下,輝達的 Blackwell 世代主打「效能、通用性、可替換性」三件事,等於一次解掉「模型要換、場景要搬、部署要跨雲」這些痛點。
據《CNBC》報導,Google 發言人在一份聲明中指出:「我們訂製的 TPU 和輝達 GPU 的需求都在加速增長。我們將一如既往地繼續支持兩者。」舉例而言,輝達執行長 黃仁勳 在先前法說會也提到,Gemini 能在輝達平台上運行,並轉述 DeepMind 執行長 Demis Hassabis 的看法:「AI 的擴展律(scaling laws)仍成立,更大的算力與更大的數據,會帶來更強的模型。」
換句話說,只要 AI 還在往「更大、更複雜」的方向前進,市場對高階加速器的胃口就不會縮小。
TPU 跟 GPU 到底差在哪?
事實上,TPU 和 GPU 都是為了加速大量並行計算而設計,常用於神經網路訓練與推論。兩者皆配備高頻寬記憶體(如 HBM),支援低精度運算(如 FP16、bfloat16、INT8)以提升效能與能效,並可透過高速互連組成大型集群來訓練 Transformer 等模型。
但兩者的差異在於「設計取向」不同。
TPU 是為深度學習客製的專用加速器,核心是大規模矩陣乘法(systolic array),主打把「大量乘法+加法」這種固定模式,做得又快、又穩、又省電,就像專門生產同一種零件的高速產線。
GPU 則源自圖形處理,並演進為通用並行處理器,既能跑深度學習也能處理科學計算、視覺與多樣工作負載。也就是說,GPU 不只會跑 AI,也能跑科學計算、影像處理、各式工具與框架;就像多功能工廠,什麼都能接。
因此在計算精度上,GPU 通常支援較高的精度(如 FP32、FP64)。因為畫圖如果算錯,畫面會破圖;科學計算算錯,橋樑會垮掉。TPU 則專門優化低精度計算(如 bfloat16、INT8),因為 AI(神經網路)其實不需要算得那麼準。例如分辨一隻貓,你算出它是貓的機率是 99.12345% 還是 99.1%,其實沒有太大差別。亦即 TPU 犧牲了一點精確程度,換來極致的速度與能效。
在記憶體存取方面,GPU 經常需要到顯示記憶體(VRAM)搬運資料,處理超大型 AI 模型時容易遇到瓶頸;而 TPU 透過大規模矩陣乘法,讓資料在晶片內部流動與復用,可大幅減少記憶體存取次數。
最後用最簡單的話來說:TPU 追求把同一種 AI 算法「做到極致」,而 GPU 則追求在更多場景都「夠快又好用」。
| 比較項目 | GPU (圖形處理器) | TPU (張量處理器) |
|---|---|---|
| 靈活性 | 通用型:什麼類型的計算都能處理,包含不規則、臨時改動的工作 | 專門型:特別擅長「大量矩陣/卷積」這種規則、重複的運算 |
| 效能瓶頸 | 常卡在資料搬運(記憶體、跨卡溝通)而不是純算力 | 也會受資料搬運/互連影響;在大批量、規則計算時效率特別好 |
| 計算精度 | 平常用較省的位數加速(FP16/BF16/FP8),要更準時會用FP32/FP64;也支援INT8/INT4 量化來省算力與成本 | 主打BF16快速運算,關鍵步驟用FP32 累加確保結果穩定;推論也能用INT8 量化加速 |
| 開發體驗 | 成熟生態(CUDA、PyTorch/TensorFlow),工具多、除錯方便 | 走XLA 編譯路線(TensorFlow/JAX/PyTorch XLA),動態/不規則程式較難調 |
| 最適場景 | 研究開發、功能多、彈性高;訓練與推論都常用 | 大型、規則、可大量並行的分散式訓練與雲端批量推論 |
| 取得方式 | 雲端、本地都容易買到,型號選擇多 | 以雲端為主(Google Cloud TPU/TPU Pod),本地較少 |
本文初稿為AI編撰,整理.編輯/ 李先泰
