AI隨機作答「真正元兇」找到了!OpenAI前技術長團隊揪出「缺乏批次不變性」,這是什麼?
AI隨機作答「真正元兇」找到了!OpenAI前技術長團隊揪出「缺乏批次不變性」,這是什麼?

為什麼問 AI 同樣問題,答案每次都不同?是因為 AI 有意識嗎?

OpenAI 前技術長 Mira Murati 領軍的 Thinking Machines Lab 最新論文帶來了重要的突破。

相信每個和 AI 聊過天的人都有過這樣的經驗:你問了 ChatGPT 或其他大型語言模型 (LLM) 一個問題,得到了一個答案。出於好奇或為了驗證,你把一模一樣的問題,原封不動地再問一次,卻得到了另一個不完全相同、甚至截然不同的答案。

這到底是怎麼回事?難道 AI 真的有「自由意志」,每次都會有不同的「想法」嗎?

一般來說,我們會得到的解釋是 AI 具有「隨機性 (Stochasticity)」,就像我們擲骰子一樣,為了讓回答更多元、更有創意,它在選擇下一個字詞時會加入一點隨機的成分。這也是為什麼在許多 AI 工具的進階設定中,你可以看到一個叫做「溫度 (Temperature)」的參數:

當你把溫度設定為 0,理論上就是要求 AI 關掉所有的隨機性,永遠選擇那個「機率最高」的字詞,讓它的回答變得完全可預測、完全確定。

但詭異的是,許多工程師和研究人員都發現,即使你把溫度降到 0,AI 的回答還是會捉摸不定,時不時給你一些驚喜(或驚嚇)。即使你在自己的電腦上,用開源的模型和軟體,這個問題依然存在。

這就像是你有一台號稱絕對精準的計算機,但 1+1 有時候會等於 2,有時候卻等於 2.00000000001。對於需要精準、可靠、可複製結果的科學研究和許多商業應用來說,這是一個巨大的麻煩。

而這篇由 Thinking Machines Lab 發表的論文《擊敗 LLM 推理中的不確定性 (Defeating Nondeterminism in LLM Inference)》,深入探討了這個問題,找到了隱藏在幕後的真正元兇。

擊敗 LLM 推理中的不確定性.jpg
由 OpenAI 前技術長Mira Murati 領軍的 Thinking Machines Lab 最新論文,揭露 LLM 推理中的不確定性。
圖/ Thinking Machines Lab

不過在揭曉答案之前,我得先大白話分享兩個電腦科學長久存在的老問題(或說現象),大家會比較好理解。

電腦老問題一:因為精度損失,導致最終結果出現微小差異

第一個是電腦天生的「差不多先生」問題,這叫做浮點數非結合律 (Floating-point Non-associativity)。(拜託你看到這個名詞先不要左轉中離!)

這聽起來很專業,但概念其實很簡單。我們先忘掉電腦,回想一下小學數學:(a+b)+c 是不是永遠等於 a+(b+c)?答案是肯定的,這叫做「結合律」。

但在電腦的世界裡,這個定律不一定成立。

為什麼?因為電腦儲存數字的方式跟我們人類不一樣。為了能同時表示極大和極小的數字,電腦採用了一種叫做「浮點數」的格式,你可以把它想像成一種「科學記號法」。它只會記住最重要的那幾個數字(稱為「尾數」),以及這個數字有多大或多小(稱為「指數」)。

這帶來一個問題: 精度是有限的

我舉個例子會更好懂:

假設你的尺只能精確到公分。現在要你測量「台北 101 的高度」加上「一張 A4 紙的厚度」。當你先把 A4 紙的厚度(約 0.01 公分)加到台北 101 的高度(約 50,800 公分)上時,因為你的尺精度不夠,這個微小的厚度很可能直接被「四捨五入」忽略掉了,結果還是 50,800 公分。

但如果你先計算兩張 A4 紙的厚度相加,再把結果加到 101 的高度上,情況可能就不同了。這就是浮點數運算的「非結合律」: 計算的順序不同,可能會因為精度損失而導致最終結果出現微小的差異

電腦老問題二:「平行運算」讓計算順序呈現隨機結果

第二個老問題是 GPU 的「七手八腳」、平行運算 (Concurrency) 的問題。

現在的 AI 模型運算,都依賴一種叫做 GPU (圖形處理器) 的晶片。GPU 的最大特色就是擁有成千上萬個微小的計算核心,可以同時處理大量的計算任務,就像有上千個工人同時在工廠裡工作一樣。

過去大家普遍認為,當這上千個工人同時計算,並要把結果匯報到同一個地方時(例如,把一萬個數字加總),誰先算完、誰後算完的順序是無法預測的。A 工人可能這次先回報,下次 B 工人搶先了。

結合前面提到的「差不多先生」問題,既然計算順序會影響結果,而 GPU 的計算順序又是隨機的,那麼 AI 每次的輸出結果都有一點點不同,似乎就合情合理了。這就是流傳已久的「平行運算 + 浮點數」假說。

然而,這篇論文告訴我們:這個假說,雖然不能說全錯,但它並沒有抓到問題的核心。事實上,在現代 LLM 的推理(也就是生成答案)過程中,大部分的運算都被設計成可以避免這種混亂的「先來後到」問題。單一的運算步驟,其實是相當穩定的。

那麼,如果單一步驟是穩定的,那不確定性到底是從哪裡來的?

原來真正的元兇是在於「公車班次」的問題 (缺乏批次不變性 Batch Invariance)。(拜託再忍一下,不要左轉中離!)

論文指出的真正元兇,是一個更隱蔽、也更有趣的概念,我稱之為 「公車班次」問題

想像一下,你是一位使用者,你對 AI 的一次提問,就像一個要去某個目的地的「乘客」。AI 伺服器就是「公車總站」。

為了提升效率,公車總站(AI 伺服器)不會每來一個乘客就發一班車。它會把差不多時間要出發的乘客集合起來,坐滿一輛公車再一起出發。這一車的乘客,在 AI 的世界裡就叫做一個「批次 (Batch)」。

現在,問題來了:
* 尖峰時刻: 當下有 100 位使用者(乘客)同時向 AI 提問,伺服器可能會派出一台「雙層巴士」(大批次),一次把 100 個問題一起處理。
* 離峰時刻: 如果當下只有你一位使用者(乘客),伺服器可能只會派出一台「小巴」(小批次),只處理你一個人的問題。

從你這位乘客的角度來看,你根本無法預測你這次搭上的是雙層巴士還是小巴。這完全取決於你送出問題的那一刻,伺服器有多忙碌。

而論文發現的驚人真相是: 你搭乘的「公車類型」(批次大小),會影響你「旅途的風景」(計算結果)!

這是因為,為了達到極致的運算效率,GPU 針對不同大小的批次,會自動選用不同的內部演算法(在論文中稱為 kernels)。處理 100 人大批次的演算法,跟處理 1 人小批次的演算法,其內部的計算順序是不同的。

於是,謎底揭曉了:

  • 你送出了一個問題。
  • AI 伺服器根據現在的忙碌程度,決定要把你的問題跟其他 N 個問題打包成一個「批次」。這個 N 是不確定的。
  • GPU 根據這個批次的大小,選擇了對應的最佳演算法。
  • 不同的演算法,意味著不同的計算順序。
  • 不同的計算順序,觸發了前面提到的「浮點數差不多先生」問題,導致了微小的數值差異
  • 這個微小的差異,在一層又一層的神經網路中被放大 ,最終可能導致在某個關鍵字詞的選擇上,從「紐約市 (New York City)」變成了「紐約皇后區 (Queens, New York)」。

所以,不確定性的根源,並非來自於單次運算的隨機性,而是來自於整個系統處理工作負載方式的「不確定性」。你的答案之所以會變,是因為在你不知道的情況下,有其他人「跟你搭了同一班車」,而這改變了司機(GPU)開車的方式。

那有解決方案嗎?既然找到了問題,解決方案當然也就呼之欲出了:無論乘客有多少,永遠都開同一款標準型號的公車!

這就是論文提出的核心解法: 「批次不變性 (Batch Invariance)」 。研究人員重新設計了 LLM 中三個最關鍵的運算環節: RMSNorm (一種標準化處理)矩陣乘法 (Matrix Multiplication)注意力機制 (Attention)

這個方法的核心想法是,強制讓 GPU 無論批次大小是多少,都必須使用同一套固定的計算策略和順序。

  • 對於 RMSNorm 和矩陣乘法: 這相對單純。他們設計了一種策略,即使在乘客很少(批次很小)的情況下,也堅持使用為大批次設計的、雖然有點「殺雞用牛刀」但計算路徑固定的方法。這會犧牲一點點效能,但換來了絕對的確定性。從論文的圖表來看,這種效能損失大約在 20% 左右,在可接受範圍內。

  • 對於注意力機制: 這就複雜多了,因為它還涉及到 AI 如何處理長篇對話的「記憶」(KV Cache)。研究人員必須確保,無論一個長句子是被一次性處理,還是分段處理,其最終的計算結果都必須分毫不差。他們採用了一種「固定分割尺寸 (fixed split-size)」的策略,確保了無論處理的文本片段長短如何,底層的計算模塊大小永遠一致,於是就可以保證了結果穩定。

實驗結果非常驚人。在使用標準的 AI 模型對「告訴我關於理查・費曼的事」這個問題生成 1,000 次回答時,即使溫度設定為 0,也產生了 80 種不同的答案版本。但在換上了他們改造過的「批次不變」核心後,1,000 次的回答,每一次都一模一樣,達成了真正的確定性。

AI研究.jpg
圖/ AI生成圖片

那麼,確定性為何如此重要?

你可能會問,AI 有點隨機性不是更有趣嗎?為什麼要花這麼大力氣去消除它?

原因在於,對於許多嚴肅的應用場景,「可複製性」是科學和工程的基礎。

  • 科學研究: 如果 AI 是一個科學發現的工具,研究者必須確保他們的實驗結果是可以被他人重現的。如果 AI 每次都給出不同的答案,那麼奠基於 AI 的科學研究就成了胡說八道。

  • AI 安全與除錯: 當 AI 犯錯時,工程師需要能夠穩定地重現這個錯誤,才能定位問題並修復它。如果錯誤時而出現、時而消失,除錯將會成為一場噩夢。

  • 高風險應用: 在醫療、金融、法律等領域,我們需要 AI 的判斷是穩定且可預測的。你不會希望一個判斷腫瘤的 AI,今天看說是良性,明天看同一張片子卻說是惡性。

  • AI 訓練的穩定性: 論文還展示了一個例子。在「強化學習 (Reinforcement Learning)」這種 AI 訓練方法中,如果模型在「學習」和「實踐」這兩個階段的數值不一致,會導致訓練過程非常不穩定,甚至直接訓練失敗。而我們一旦實現了確定性推理後,AI 的學習過程效率和穩定性都大大提升。

所以,這篇論文的價值,不僅僅是解決了一個技術難題。它更深層的意義在於, 它代表了 AI 領域從一種「差不多就好」的狀態,向著更嚴謹、更可靠、更工程化的方向邁進

過去,當我們遇到數值上的微小差異時,很容易說:「沒關係,反正 AI 本來就是機率性的。」但這種「差不多先生」的心態,會阻礙我們建立真正值得信賴的 AI 系統。

Thinking Machines 的研究告訴我們,只要我們願意深入挖掘,去理解系統的每一個環節,那些看似隨機、無法解釋的「靈異現象」其實都有其物理和數學上的根源。而一旦理解了根源,我們就有能力去駕馭它、去改造它,最終建立一個真正可靠的智慧未來。

下一次,當你發現 AI 給了你不一樣的答案時,你將會知道,那可能不是因為它有了「新想法」,而只是因為在那一瞬間,有許多陌生人,悄悄地「跟你搭上了同一班車」。

延伸閱讀:Claude 3曾吐:我知道你在測試我!AI真有心智能力嗎?從「大海撈針」測試看起
行銷不必再靠感覺!調校AI讀懂人性、因果,還能識破經典啤酒尿布之謎

往下滑看下一篇文章
從會員數據到 AI 行銷:Vpon 打造零售業 AI-Ready 數據中台,提升決策效率
從會員數據到 AI 行銷:Vpon 打造零售業 AI-Ready 數據中台,提升決策效率

在 AI 快速進入企業營運核心的時代,數據不再只是被動的分析素材,而是 AI 模型運作與決策優化的重要基礎。

零售品牌積極累積大量第一方數據,例如會員資料、交易紀錄以及線上與線下行為數據,但因這些數據分散於不同系統,缺乏統一的身分識別機制以及明確的元數據(Metadata)定義,導致難以整合與分析,同時,也影響 AI 對這些數據資產的理解與應用。

為解決上述挑戰,Vpon 威朋將累積十餘年的實務經驗轉化為產品與服務,如 Audience Center 與 AI Agent 等解決方案,並透過專業顧問團隊協助企業完成數據收集、清理、整合與分析等關鍵流程,從資料清理到 AI-Ready 再到落地應用,讓行銷與業務團隊能以自然語言將數據查詢與分群受眾逐步自動化,大幅縮短過去仰賴技術與分析團隊溝通需求與開發分析邏輯的時間。

Vpon 助零售業打造 AI-Ready 數據基礎,以 Audience Center 驅動業務商機

如何建立 AI Ready 數據基礎建設?

Vpon 威朋數據科學經理廖宜楷指出,在 AI 驅動的時代,數據的品質決定模型價值。其中四個關鍵分別是:建構標準化的數據採集與處理管線,透過統一的工程規範,確保所有進入系統的數據在格式、維度與質量上具備高度一致性;其次是定義語義清晰的元數據(Metadata)體系,確保數據能夠被 AI 理解與使用,從而產出具備可靠性的產出結果;再來是打破企業內部的「數據孤島」, 透過完整整合線上(Web/App)行為與線下(POS/CRM)會員資訊,建構全方位的會員數據輪廓,精準捕捉消費者的跨通路行為軌跡。最後,數據的價值隨時間遞減,AI 的決策品質取決於數據的「新鮮度」,因此,數據的持續更新與自動化維護,不僅能讓企業在動態市場中保持敏銳,還可進一步深化會員輪廓分析的即時性。

舉例來說,在 Vpon 團隊的協助下,台灣百貨零售龍頭透過整合 Web 與 App 行為資料,並將線上與線下數據集中於數據中台進行分析,將傳統耗時數小時的複雜資料庫分析工作縮短至秒級回應,並基於此高效率基礎,進一步開發不同業務主題的預測與分群模型,提升行銷精準度與營運決策的敏捷性。

扎實數據基礎的價值落實:Audience Center 如何賦能企業實現「數據即戰力」?

有了堅實的數據底座後,下一步是透過 Audience Center 將數據資產轉化為商業動能。

廖宜楷指出,在變化快速的零售與數位行銷市場中,速度就是競爭力。然而,仍有許多企業在數據應用上面臨嚴重的溝通與技術斷層。過去,當行銷或業務人員需要數據支持時,通常得花費繁複的內部流程申請需求、討論需求,才會進到後續的資料清理、建模與分析,最後才能得到想要的分析結果或行銷名單。這種以「週」為單位的進程,不僅拖慢了決策效率,更讓企業在競爭激烈的市場中錯失先機。

Audience Center 的核心價值在於徹底翻轉上述流程,將數據處理轉化為數據服務,透過直覺的介面與背後扎實的數據基礎支撐,讓非技術人員不用編寫程式碼,即可自行組合維度,大幅縮短從需求到執行的距離,將原先需要耗時數週的作業流程優化成秒級產出。

「Audience Center 的導入,不僅有助於提升效率,更賦予企業快速試錯與精準捕獲趨勢的能力,讓數據真正成為驅動業務增長的引擎。」廖宜楷如此總結。

#1 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋數據科學經理 廖宜楷
圖/ 數位時代

以 AI Agent 重塑數據使用方式,讓數據更貼近決策流程

「Vpon 除提供 Audience Center 協助品牌發揮第一方數據資產價值、提供豐沛的第三方數據助品牌深化對客戶輪廓的掌握度,更推出 AI Agent 服務讓品牌與行銷人員能更直覺地使用數據。」Vpon 威朋數據科學資深總監陳文謙表示,在數位轉型的過程中,許多企業面臨的挑戰不僅是數據整合,更包括如何讓不同部門的人員都能更即時協作與應用數據,有鑑於此,Vpon 推出四種 AI Agent 協助企業分析與應用數據,極大化第三方數據成效:

第一,以 Reporting Agent 讓高階主管或行銷人員可以自然語言查詢數據與生成報表,即時掌握市場動態,加速決策下達與決策品質。

第二,透過 Insight Agent 確保數據分析不受分析人員的主觀意識或產業知識侷限,可以輕鬆完成跨領域數據分析、快速挖掘潛在市場機會與消費者洞察。

第三,藉由 Audience Agent 將客戶分群方式從規則導向(Rule-based)轉變為關聯導向,以關聯分析擴大受眾範圍,協助品牌找出更多潛在客群。

第四,推出 Creative Agent 協助行銷人員分析廣告素材表現的根本原因,釐清受眾喜歡的素材跟不喜歡的素材,藉此優化廣告投放內容,持續提升轉換率。

陳文謙表示:「透過 AI Agent 的輔助,品牌不僅能更快完成數據分析,也能將分析結果直接轉化為行銷策略與創意建議,降低跨部門溝通成本,讓數據真正參與決策流程。」

#2 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋數據科學資深總監 陳文謙
圖/ 數位時代

鏈結數據生態夥伴,以跨境數據放大行銷效益

除了協助品牌主建立 AI Ready 的數據基礎環境並提升數據使用效率,Vpon 也持續拓展數據生態圈,協助零售品牌更精準布局海外市場。

Vpon 威朋產品行銷資深經理邱心儒表示,跨境行銷過去多仰賴經驗與市場直覺,但透過數據整合與 AI 分析,品牌能更精準理解海外消費者的旅遊與消費行為。

以 Vpon 與日本 Loyalty Marketing Inc. 合作為例說明,透過雙方的獨家合作,企業可以結合 Ponta 超過一億的會員數據、問卷調查結果以及 Vpon 的七大數據來源,深入分析日本消費者的消費偏好與購買力——包括哪些日本族群對台灣品牌最感興趣、最受歡迎的台灣商品類型,以及不同客群的價格敏感度與回購行為等,將行銷決策從過往的經驗判斷轉變為精準的數據洞察,成為品牌出海的重要工具。

簡言之,對零售品牌而言,跨境數據是理解海外旅客真實樣貌的一大利器,也能進一步優化廣告投放、內容策略與商品布局,讓品牌在拓展國際市場時,可以更有效率地接觸潛在客群,放大行銷效益。

#3 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋產品行銷資深經理 邱心儒
圖/ 數位時代

展望未來,Vpon 將持續擴展數據生態圈並優化產品服務,幫助零售品牌從數據整合、AI 分析到市場決策建立完整的數據應用循環,希望以數據夥伴的角色與品牌共同成長,打造互利共贏的數據生態。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
AI全球100+台灣20
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓