「NVIDIA領先業界一個世代!」輝達罕見回擊「谷歌TPU威脅論」:GPU跟TPU到底差在哪?
「NVIDIA領先業界一個世代!」輝達罕見回擊「谷歌TPU威脅論」:GPU跟TPU到底差在哪?

重點一:輝達稱其 GPU 平台「領先一個世代」,可在各種環境執行各類 AI 模型,回應外界對 Google TPU 競爭的疑慮。

重點二:受到臉書母公司 Meta 可能採用 Google TPU 的報導影響,輝達股價當日下跌約 3%,市場關注其在 AI 基礎設施的主導地位。

重點三:Google 表示 TPU 與輝達 GPU 的需求都在加速;最新的 Gemini 3 用 TPU 訓練,但也能在輝達平台上執行,競合關係更為明顯。

輝達最近在 X 上丟出一句話:「我們領先整個業界一個世代,而且是唯一能把所有 AI 模型在各種地方都跑起來的平台。」這段話明顯是回應市場疑慮:Google 的 TPU 聲量升高,是否會動搖輝達在 AI 硬體的霸主地位?

引爆點是:有報導稱 Meta 可能與 Google 合作,在資料中心採用 TPU。結果輝達股價當天回檔約 3%。雖然分析師普遍認為,輝達以 GPU 在 AI 晶片市場仍握有逾九成的市占率,但「TPU 更便宜?交期更穩?雲端資源更好租用?」這類現實考量,讓雲端業者越來越傾向「兩邊都用」。

為了回應外界疑慮,輝達在貼文裡把核心差異講白了:ASIC(如 Google TPU)為特定公司或用途客製,性能不差,但彈性有限;相較之下,輝達的 Blackwell 世代主打「效能、通用性、可替換性」三件事,等於一次解掉「模型要換、場景要搬、部署要跨雲」這些痛點。

據《CNBC》報導,Google 發言人在一份聲明中指出:「我們訂製的 TPU 和輝達 GPU 的需求都在加速增長。我們將一如既往地繼續支持兩者。」舉例而言,輝達執行長 黃仁勳 在先前法說會也提到,Gemini 能在輝達平台上運行,並轉述 DeepMind 執行長 Demis Hassabis 的看法:「AI 的擴展律(scaling laws)仍成立,更大的算力與更大的數據,會帶來更強的模型。」

換句話說,只要 AI 還在往「更大、更複雜」的方向前進,市場對高階加速器的胃口就不會縮小。

TPU 跟 GPU 到底差在哪?

事實上,TPU 和 GPU 都是為了加速大量並行計算而設計,常用於神經網路訓練與推論。兩者皆配備高頻寬記憶體(如 HBM),支援低精度運算(如 FP16、bfloat16、INT8)以提升效能與能效,並可透過高速互連組成大型集群來訓練 Transformer 等模型。

但兩者的差異在於「設計取向」不同。

TPU 是為深度學習客製的專用加速器,核心是大規模矩陣乘法(systolic array),主打把「大量乘法+加法」這種固定模式,做得又快、又穩、又省電,就像專門生產同一種零件的高速產線。

GPU 則源自圖形處理,並演進為通用並行處理器,既能跑深度學習也能處理科學計算、視覺與多樣工作負載。也就是說,GPU 不只會跑 AI,也能跑科學計算、影像處理、各式工具與框架;就像多功能工廠,什麼都能接。

因此在計算精度上,GPU 通常支援較高的精度(如 FP32、FP64)。因為畫圖如果算錯,畫面會破圖;科學計算算錯,橋樑會垮掉。TPU 則專門優化低精度計算(如 bfloat16、INT8),因為 AI(神經網路)其實不需要算得那麼準。例如分辨一隻貓,你算出它是貓的機率是 99.12345% 還是 99.1%,其實沒有太大差別。亦即 TPU 犧牲了一點精確程度,換來極致的速度與能效。

在記憶體存取方面,GPU 經常需要到顯示記憶體(VRAM)搬運資料,處理超大型 AI 模型時容易遇到瓶頸;而 TPU 透過大規模矩陣乘法,讓資料在晶片內部流動與復用,可大幅減少記憶體存取次數。

最後用最簡單的話來說:TPU 追求把同一種 AI 算法「做到極致」,而 GPU 則追求在更多場景都「夠快又好用」。

比較項目 GPU (圖形處理器) TPU (張量處理器)
靈活性 通用型:什麼類型的計算都能處理,包含不規則、臨時改動的工作 專門型:特別擅長「大量矩陣/卷積」這種規則、重複的運算
效能瓶頸 常卡在資料搬運(記憶體、跨卡溝通)而不是純算力 也會受資料搬運/互連影響;在大批量、規則計算時效率特別好
計算精度 平常用較省的位數加速(FP16/BF16/FP8),要更準時會用FP32/FP64;也支援INT8/INT4 量化來省算力與成本 主打BF16快速運算,關鍵步驟用FP32 累加確保結果穩定;推論也能用INT8 量化加速
開發體驗 成熟生態(CUDA、PyTorch/TensorFlow),工具多、除錯方便 XLA 編譯路線(TensorFlow/JAX/PyTorch XLA),動態/不規則程式較難調
最適場景 研究開發、功能多、彈性高;訓練與推論都常用 大型、規則、可大量並行的分散式訓練與雲端批量推論
取得方式 雲端、本地都容易買到,型號選擇多 雲端為主(Google Cloud TPU/TPU Pod),本地較少

延伸閱讀:Google重回AI霸主!Gemini 3橫掃市場背後:TPU助攻,強大生態網讓對手沒得玩

資料來源:CNBC彭博社

本文初稿為AI編撰,整理.編輯/ 李先泰

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓