2025 年是 AI 產業從「技術狂熱」走向「商業理性」的轉捩點。在這一年,我們見證了 DeepSeek 帶來的成本衝擊、推理模型(Reasoning Model)的崛起,以及企業端對 ROI(投資報酬率)的極度渴求。當燒錢追夢的時代遠去,決定企業生死的不再只是模型參數量,而是「TCO(整體擁有成本)」的優化能力。
以下 Q 為《數位時代》總編輯王志仁提問,A 為台大資工系教授徐宏民的回答,徐教授將以學術研究與產業投資的雙棲視角,解析 AI 如何從生產力工具進化為改變企業結構的系統性力量。
Q1:回顧 2025 年,AI 技術發展有哪些關鍵的收斂點或方向性的轉變?
A:我建議從「橫向時間軸」與「縱向供應鏈」兩個向度來看這件事,這能幫助我們更清晰地看見 AI 究竟發生了什麼。
首先是橫向的時間軸。 這一波 AI 的起源可以回溯到 2012 年,當時深度學習在影像辨識取得突破(如人臉辨識、影像監控);2017 年 Transformer 架構出現,這原本是用於文字、搜尋、翻譯,但後來演化成 2020 年的 GPT-3;到了 2022 年底 ChatGPT 誕生,讓全球見識到 AI 的「泛化能力」——同一個模型能處理多樣化的工作。而到了 2024 至 2025 年,最重要的技術進展是「推理模型」 的成熟,AI 開始能處理更複雜的邏輯思考。
其次是縱向的供應鏈結構。 AI 並非單獨的模型,它是一個龐大的生態系。從底層的晶圓代工(Foundry)、IC 設計到硬體伺服器(包含散熱、PCB、交換機等),再往上到 CSP(雲端服務商,如 Google, AWS, Azure),接著才是大語言模型以及基於模型開發的新創應用。
今年初 DeepSeek 的崛起是一個經典案例,它用更低成本的方式達到強大的模型能力,這對台灣是非常有利的,因為當模型的競爭變快,對硬體(Server/散熱/通訊)的需求就會更高。所以 2025 年的一個關鍵收斂是:大家確認了大模型的能力,並開始往生態系的上下游尋找最優解 。
Q2:2025 下半年,大家從 Benchmark(基準測試)數據,轉而關注營運面,背後原因為何?NVIDIA 又為何砸下 200 億美元收購 Groq?
A:2025 年最大的轉變是:大家不再只談「能力」,而開始談 P&L(損益表)與 TCO。當 Transformer 技術架構在未來三到五年確立後,產業必然會走向極致的「成本最佳化」。
企業現在考慮的不是模型多聰明,而是「我用不用得起」。 這催生了「電力戰爭(Energy War)」 的元年。現在大廠聊的不再是「要買幾片晶片」,而是「我有幾個 MW(百萬瓦)甚至 GW(十億瓦)的電力」。電力的限制已經取代晶片,成為資料中心擴張的真正瓶頸。以 Google 為例,他們在 2025 年 8 月發表,透過軟硬體垂直整合與自研晶片,在一年內將單一 Token 的用電成本降低了 33 倍。
這種趨勢直接引發了雲端服務商(CSP)紛紛自研 TPU 或 ASIC 晶片,以擺脫對高價 GPU 的依賴。而 NVIDIA 以 200 億美金併購 Groq,正是對此趨勢的強力回應。Groq 以 LPU(語言處理單元)聞名,專攻推理端(Inference)的極致效率。當市場開始質疑 GPU 在執行推理任務時不夠省電、不夠有效率時,NVIDIA 必須做出佈局。這就像 2019 年他們收購 Mellanox 解決通訊瓶頸一樣,收購 Groq 是為了在「推理效率」這塊陣地插旗,應對來自 Google TPU 或其他 ASIC 晶片的威脅,確保自己在營運成本戰中依然立於不敗之地。
LPU晶片是什麼?
LPU 是一種專為 AI 推論任務設計的特殊應用集成電路(ASIC)。其核心目標在於解決大型語言模型(LLM)在生成文字時的延遲與吞吐量瓶頸,標榜能比傳統 GPU 提供更快的反應速度與更高的效能。
Q3:在企業應用端,有哪些領域已經真正將 AI 轉化為實際的生產力?
A:寫程式(Coding)是目前獲利最清晰的領域。目前全球有一半的 Token 是被用在寫 Code。以矽谷新創 Cursor 為例,他們在 2024 年 12 月只有 18 個工程師,年營收 5,000 萬美金;至 2025 年營收已經衝破 10 億美金,增長速度極其驚人,卻也證明了市場的龐大需求。
甚至連原本對資料最敏感、最保守的 IC 設計公司,現在也在大規模使用 AI 工具來加速晶片設計。雖然他們對資料安全有疑慮,但會透過 Hybrid 模式(混合模式),將部分運算放在 Local Server 處理,或使用大型 EDA(電子設計自動化)工具商提供的 AI 服務。台灣與矽谷的 IC 設計大廠,今年都大幅擴張 AI 團隊並投入 GPU Server,進行設計流程的最佳化。
Q4:當 AI 可接手寫 Code 的工作,是否象徵工程師將被取代?
A:我認為是「職能重組」,未來的工程師不再只是「寫 Code 的人」,而更像是 FDE(Forward Deployment Engineering,前線部署工程師),這同時也是現在矽谷最缺的職位。因競爭週期極快,企業需要的是進來就能馬上解決問題的人。
當 AI 可負責處理「定義明確」的重複性工作,這類初階助理級的任務不再需要人力手工撰寫;而工程師的角色則趨向:去前線理解客戶需求,並在擁有靈感後去觸發(trigger)、將商業邏輯「翻譯」給 AI。
我看到許多資深開發者會同時開啟好幾個 AI 引擎交叉比對、協助除錯。研究顯示,這種人機協作模式能讓開發速度提升 1.5 倍到 3 倍。這就是為什麼企業願意支付高額成本投資 AI 工具,因為當研發周期大幅縮短,其 ROI 是極其可觀的。
縱使初階工作會消失,但具備核心領域知識與問題定義能力的人,價值及生產力反而會倍增。這不只是在軟體業,包含 HR 的招募流程、財務的預測報告,AI 都在將繁瑣的流程自動化。
Q5:展望 2026 年,預期 AI 將如何從「工具」進化為「系統」的一部分?有哪些關鍵趨勢?
A: 2026 年的關鍵字將是「Chat to Action」。AI 不再只是「給建議」,而是轉向執行「動作」。在企業內部,這會體現為 Agent(代理)。例如 HR Agent 自動處理法規諮詢與健檢安排,或 Finance Agent 進行財報預測與下單決策,甚至實體機器人的動作執行。
隨著 AI Token 的成本像當年 Internet 封包(Packet)一樣指數型下降,我們會看到兩個主軸:
1. 混合雲與邊緣運算(Edge AI)的崛起: 企業內部的高價值、高敏感性資料(如財務、薪資)不能上雲(Internet)。而 2025 年的科學驗證發現,參數在百億到千億之間的小模型已具備足夠的推理能力,不需要兆級的大模型就能處理特定任務。這意味著 2026 年會看到更多搭載於企業內網、個人手機或醫療設備上的「系統級」大腦,實現高隱私、低成本的智慧化。
2. 責任歸屬與治理: 當 AI 開始做決策,誰來負法律責任?因此會催生出更多關於資料治理、安全與可靠性的解決方案。
總結來說,2026 年 AI 將不再只是一個對話框,而是整合在服務場域中的「解決方案」。我們正處於一個長週期的起點,重點不在於擔心被取代,而在於如何利用便宜的 Token,在特定產業的垂直領域中創造出不可替代的創意與價值。
完整收聽Podcast|EP267. AI 在2025帶來的驚喜和失望有哪些?年末輝達收購Groq的用意是什麼? ft. 台大資工系教授徐宏民)
