在訪問的尾聲,Google Tensor晶片團隊產品負責人潔思.希德(Jesse Seed)隔著鏡頭,對著媒體秀出一枚黑色晶片,「它比一分錢(美元)還要小!」(編按:一美分硬幣直徑為19.05mm,台幣一元硬幣為20mm)說著拿出一枚硬幣比對,難掩興奮的語氣。
她手上的迷你晶片就是Tensor G5的廬山真面目,作為Google全新自研SoC晶片,小小的體積,驅動著新一代Pixel 10系列旗艦手機功能,也是Google目前為止最大的效能躍進。
躍進一:從三星到台積電,3奈米製程助攻
「這是我們五年旅程的新篇章,我們今年所做的重要決定之一,就是轉移到台積電的新製程節點。」希德說。
Tensor G5早在手機正式發表前幾個月就引發高度關注,其中一個重要原因,就是Google換掉了多年的代工夥伴三星,由台積電製程3奈米製程補位。
希德並未透露Google這項決定背後的考量,不過三星在先進製程的良率問題,過去已經導致包括高通在內的多家大客戶轉單到台積電,Google這家巨頭的動向,也引領著這場晶圓代工競賽中的重大轉折點。
這項合作的戰略意義也遠遠超過單純的代工。根據《Digitimes》報導,雙方合作將至少涵蓋未來三到五年,預計一路延伸至 Pixel 14 所搭載的 Tensor 晶片,傳聞Google高層甚至曾親自造訪台灣,討論合作細節。
對於這場合作,希德強調是重要的戰略夥伴關係,「台灣對我們來說非常重要,我們在台灣也正在擴編我們的晶片團隊陣容。」
躍進二:「只有Tensor跑得動」,AI團隊加入設計量身打造
一顆更強的「心臟」,讓輕巧的手機能進行龐大的AI運算,甚至,達成只有Google自己的手機才做得到的事。
希德指出,在Tensor G5開發過程中,Gemini AI模型相關功能的核心團隊Google Deepmind也深度參與到設計過程中,讓這款晶片的性能幾乎是為AI量身打造。
尤其Tensor G5將TPU效能提升6成、CPU平均速度增加3成,能更高效地運行Google裝置端模型Gemini Nano,速度快又不會過度耗電,這樣的升級幅度,讓Pixel 10擁有超過20種完全在裝置上運行的生成式AI體驗。Google台灣硬體副總裁彭昱鈞也指出,這次更新的很多功能「只有Tensor G5的手機能跑得動」,雖然會開放其他品牌的手機合作,可能也很難完整導入。
其中一個關鍵在於Gemini Nano採用一種「俄羅斯娃娃」般的特殊設計,在一個大型模型裡,包進一個較小的子模型,讓每個APP在運算時,能夠根據情況選擇速度比較快的子模型、或者更高品質的完整模型,透過這種工作負載的自動調配,就能有效減少整體能源消耗、反應時間和占用的記憶體。
這些共同設計的成果,讓Tensor G5上的最新Nano模型能夠以2.6倍的速度運行,效率更是提高2倍,代表消耗相同的能源,這一代卻可以執行2倍的工作量,例如上下文可以容納高達32,000個Tokens,相當於一個月的電子郵件或100張截圖的內容,都可以被一次性處理 。
躍進三:裝置端+雲端混合式運算,隨時找到最適合的情境
自從生成式AI崛起,雲端和裝置端的運算一直是手機、筆電等產業最頭痛的問題,因為複雜、耗費資源的AI任務,大多必須依靠雲端巨大資料中心完成,必須透過網路來回傳送、也要將個人資料分享到雲端。
隨著晶片效能的飛躍,將AI運算從雲端轉移到裝置端,已成為手機製造商競爭追逐的「聖杯」,因為這意味著更快的反應速度、更好的隱私保護,以及即使在網路不穩的情況下,也能順利運作的體驗。
既然Tensor G5效能有了史上最大幅度的升級,是否會大動作往裝置端AI推進?對此,希德給出了一個相當務實的回答:「我們看到的是大量的混合式工作負載(hybrid workloads)。」
希德指出,Google的策略並非將所有功能都搬到裝置上,而是結合Google的雲端優勢,「我們的團隊會逐一審視每一個使用情境,並找出最適合運行的位置。」
她舉了幾個例子來說明這項策略:
裝置端運算:像即時語音翻譯(Voice Translate)和通話筆記(Call Notes)這類功能,在裝置上運行能帶來明顯的好處。這些應用程式需要極快的反應,同時要保障使用者的聲音、訊息內容隱私,在裝置上運算能夠實現更即時、自然的使用情境。
雲端運算:像影片修復(Video Boost)這類功能,因為運算需求大,檔案也更大,則更適合利用伺服器上最高品質的模型來快速處理。
總結來說,Tensor G5晶片透過硬體規格升級,為Pixel 10系列手機解鎖了更強的獨家軟體功能,在這場AI大戰中,和AI團隊密切合作、全自研、為手機量身打造的Tensor G5,無疑是Google最重要的武器。
責任編輯:李先泰