2025 年 11 月 19 日,Google 正式推出 Gemini 3,並宣布將其導入全線產品。
除了可體驗採用最新模型的聊天機器人 Gemini 3 Pro 外,包含 Google 搜尋(AI Overviews)、Gemini App,以及針對開發者和企業端的服務,都將全面導入 Gemini 3。用戶只需打開 Google AI Studio 即可開始免費體驗。
Gemini 3 推出後獲得一片好評,對 OpenAI 造成了巨大的壓力。
TPU變當紅炸子雞
Google 的 AI 模型主要以自家研發的 TPU(張量處理器)進行訓練及推論。隨著 Gemini 3 的成功,市場目光也轉向了 Google 的 TPU。
早在 2024 年 7 月底,蘋果公司就曾宣布採用 Google 設計的晶片,為其人工智慧系統 Apple Intelligence 訓練 AI 模型。
2025 年 10 月底,美國人工智慧開發公司 Anthropic 與 Google 簽訂合約,將使用高達 100 萬顆 Google TPU。Anthropic 稱這項合約價值達數百億美元,預計將在 2026 年帶來超過 1GW 電力規模的算力。
此次交易中,首批約 40 萬顆最新的 TPU 將不再透過雲端租賃,而是由 Google 長期合作夥伴「博通」直接出售給 Anthropic,價值約 100 億美元,此舉打破了 Google 過往不直接對外販售 TPU 的商業模式。
剩餘的 60 萬顆 TPU 將透過 Google Cloud 進行租賃,這部分涉及金額高達 420 億美元的「剩餘履約義務」(RPO)。
Gemini 3 推出後,傳出 Meta 有意在其資料中心部署 Google TPU。消息一出,輝達(NVIDIA)當天開盤股價大跌,迫使輝達不得不在盤中發文,宣稱其 GPU 技術領先 Google TPU 一代,才讓股價跌幅縮小。
TPU誕生的目的:省電、省功耗、省錢
2015 年,Google 因在內部核心業務(如搜尋、廣告等)廣泛應用「深度學習」,工程團隊發現若全面採用深度學習模型,全球資料中心的功耗將激增。即使大量採購 GPU 也無法滿足需求,且會導致成本暴增。
為此,Google 決定自研 ASIC 加速器,目標是打造可大量部署於資料中心、專用於「矩陣運算」的高效能晶片,而非單純追求通用性能。由於 IC 設計並非 Google 當時的專長,因此由 Google 制定規格,並交由博通負責開發 ASIC。
2016 年,Google 第一版 TPU v1 正式上線,支援 Google 翻譯及部分搜尋功能,證明了 ASIC 方案的可行性。此後,Google 持續開發 TPU 作為資料中心的「加速器」,幾乎每年都推出新一代產品。
2025 年,Google 推出第 7 代 TPU(TPU v7,代號 Ironwood),在架構、規模、可靠性、網路與軟體系統上進行了全面重構,迅速成為全球 AI 基礎設施領域最受矚目的產品。
賣TPU、租TPU,顯然都是好生意
TPU 是針對「深度學習」設計的「客製化 IC」(ASIC),經過多代演進,功能日益強大,已對 GPU 造成巨大壓力。
GPU 最早是為「電腦圖形顯示」設計(早期稱為顯示晶片)。由於具備數千個可執行平行運算的核心,適用於深度學習與科學計算,輝達將其定義為「圖形處理器」(GPU),以彰顯其計算應用能力。
GPU 提供可程式化特性,並支援多種演算法與框架,早期的生成式 AI 便是利用 GPU 進行訓練與推論。隨著大語言模型的發展,對算力的要求日益提高,GPU 雖不斷推出功能更強大的晶片,但功耗也大幅增加,導致 AI 資料中心的用電需求直線上升。
目前人工智慧算力的基礎設施大部分架構在輝達的 GPU 之上。然而,Google 的 TPU 經「十年磨一劍」後,商業模式已從「服務內部需求」轉為「開放與相容外部生態」,更進一步直接對外販售 TPU。
Google 的目標是讓其 AI TPU 的銷售額,達到輝達 AI 晶片營收的 10-15% 左右。
雖以此態勢尚不至於對輝達造成嚴重威脅,然而異軍突起的 TPU,已讓輝達此前獨霸 AI 晶片市場的氣勢,蒙上了一層不算太小的「陰影」。
責任編輯:李先泰
