AI隨機作答「真正元兇」找到了!OpenAI前技術長團隊揪出「缺乏批次不變性」,這是什麼?
AI隨機作答「真正元兇」找到了!OpenAI前技術長團隊揪出「缺乏批次不變性」,這是什麼?

為什麼問 AI 同樣問題,答案每次都不同?是因為 AI 有意識嗎?

OpenAI 前技術長 Mira Murati 領軍的 Thinking Machines Lab 最新論文帶來了重要的突破。

相信每個和 AI 聊過天的人都有過這樣的經驗:你問了 ChatGPT 或其他大型語言模型 (LLM) 一個問題,得到了一個答案。出於好奇或為了驗證,你把一模一樣的問題,原封不動地再問一次,卻得到了另一個不完全相同、甚至截然不同的答案。

這到底是怎麼回事?難道 AI 真的有「自由意志」,每次都會有不同的「想法」嗎?

一般來說,我們會得到的解釋是 AI 具有「隨機性 (Stochasticity)」,就像我們擲骰子一樣,為了讓回答更多元、更有創意,它在選擇下一個字詞時會加入一點隨機的成分。這也是為什麼在許多 AI 工具的進階設定中,你可以看到一個叫做「溫度 (Temperature)」的參數:

當你把溫度設定為 0,理論上就是要求 AI 關掉所有的隨機性,永遠選擇那個「機率最高」的字詞,讓它的回答變得完全可預測、完全確定。

但詭異的是,許多工程師和研究人員都發現,即使你把溫度降到 0,AI 的回答還是會捉摸不定,時不時給你一些驚喜(或驚嚇)。即使你在自己的電腦上,用開源的模型和軟體,這個問題依然存在。

這就像是你有一台號稱絕對精準的計算機,但 1+1 有時候會等於 2,有時候卻等於 2.00000000001。對於需要精準、可靠、可複製結果的科學研究和許多商業應用來說,這是一個巨大的麻煩。

而這篇由 Thinking Machines Lab 發表的論文《擊敗 LLM 推理中的不確定性 (Defeating Nondeterminism in LLM Inference)》,深入探討了這個問題,找到了隱藏在幕後的真正元兇。

擊敗 LLM 推理中的不確定性.jpg
由 OpenAI 前技術長Mira Murati 領軍的 Thinking Machines Lab 最新論文,揭露 LLM 推理中的不確定性。
圖/ Thinking Machines Lab

不過在揭曉答案之前,我得先大白話分享兩個電腦科學長久存在的老問題(或說現象),大家會比較好理解。

電腦老問題一:因為精度損失,導致最終結果出現微小差異

第一個是電腦天生的「差不多先生」問題,這叫做浮點數非結合律 (Floating-point Non-associativity)。(拜託你看到這個名詞先不要左轉中離!)

這聽起來很專業,但概念其實很簡單。我們先忘掉電腦,回想一下小學數學:(a+b)+c 是不是永遠等於 a+(b+c)?答案是肯定的,這叫做「結合律」。

但在電腦的世界裡,這個定律不一定成立。

為什麼?因為電腦儲存數字的方式跟我們人類不一樣。為了能同時表示極大和極小的數字,電腦採用了一種叫做「浮點數」的格式,你可以把它想像成一種「科學記號法」。它只會記住最重要的那幾個數字(稱為「尾數」),以及這個數字有多大或多小(稱為「指數」)。

這帶來一個問題: 精度是有限的

我舉個例子會更好懂:

假設你的尺只能精確到公分。現在要你測量「台北 101 的高度」加上「一張 A4 紙的厚度」。當你先把 A4 紙的厚度(約 0.01 公分)加到台北 101 的高度(約 50,800 公分)上時,因為你的尺精度不夠,這個微小的厚度很可能直接被「四捨五入」忽略掉了,結果還是 50,800 公分。

但如果你先計算兩張 A4 紙的厚度相加,再把結果加到 101 的高度上,情況可能就不同了。這就是浮點數運算的「非結合律」: 計算的順序不同,可能會因為精度損失而導致最終結果出現微小的差異

電腦老問題二:「平行運算」讓計算順序呈現隨機結果

第二個老問題是 GPU 的「七手八腳」、平行運算 (Concurrency) 的問題。

現在的 AI 模型運算,都依賴一種叫做 GPU (圖形處理器) 的晶片。GPU 的最大特色就是擁有成千上萬個微小的計算核心,可以同時處理大量的計算任務,就像有上千個工人同時在工廠裡工作一樣。

過去大家普遍認為,當這上千個工人同時計算,並要把結果匯報到同一個地方時(例如,把一萬個數字加總),誰先算完、誰後算完的順序是無法預測的。A 工人可能這次先回報,下次 B 工人搶先了。

結合前面提到的「差不多先生」問題,既然計算順序會影響結果,而 GPU 的計算順序又是隨機的,那麼 AI 每次的輸出結果都有一點點不同,似乎就合情合理了。這就是流傳已久的「平行運算 + 浮點數」假說。

然而,這篇論文告訴我們:這個假說,雖然不能說全錯,但它並沒有抓到問題的核心。事實上,在現代 LLM 的推理(也就是生成答案)過程中,大部分的運算都被設計成可以避免這種混亂的「先來後到」問題。單一的運算步驟,其實是相當穩定的。

那麼,如果單一步驟是穩定的,那不確定性到底是從哪裡來的?

原來真正的元兇是在於「公車班次」的問題 (缺乏批次不變性 Batch Invariance)。(拜託再忍一下,不要左轉中離!)

論文指出的真正元兇,是一個更隱蔽、也更有趣的概念,我稱之為 「公車班次」問題

想像一下,你是一位使用者,你對 AI 的一次提問,就像一個要去某個目的地的「乘客」。AI 伺服器就是「公車總站」。

為了提升效率,公車總站(AI 伺服器)不會每來一個乘客就發一班車。它會把差不多時間要出發的乘客集合起來,坐滿一輛公車再一起出發。這一車的乘客,在 AI 的世界裡就叫做一個「批次 (Batch)」。

現在,問題來了:
* 尖峰時刻: 當下有 100 位使用者(乘客)同時向 AI 提問,伺服器可能會派出一台「雙層巴士」(大批次),一次把 100 個問題一起處理。
* 離峰時刻: 如果當下只有你一位使用者(乘客),伺服器可能只會派出一台「小巴」(小批次),只處理你一個人的問題。

從你這位乘客的角度來看,你根本無法預測你這次搭上的是雙層巴士還是小巴。這完全取決於你送出問題的那一刻,伺服器有多忙碌。

而論文發現的驚人真相是: 你搭乘的「公車類型」(批次大小),會影響你「旅途的風景」(計算結果)!

這是因為,為了達到極致的運算效率,GPU 針對不同大小的批次,會自動選用不同的內部演算法(在論文中稱為 kernels)。處理 100 人大批次的演算法,跟處理 1 人小批次的演算法,其內部的計算順序是不同的。

於是,謎底揭曉了:

  • 你送出了一個問題。
  • AI 伺服器根據現在的忙碌程度,決定要把你的問題跟其他 N 個問題打包成一個「批次」。這個 N 是不確定的。
  • GPU 根據這個批次的大小,選擇了對應的最佳演算法。
  • 不同的演算法,意味著不同的計算順序。
  • 不同的計算順序,觸發了前面提到的「浮點數差不多先生」問題,導致了微小的數值差異
  • 這個微小的差異,在一層又一層的神經網路中被放大 ,最終可能導致在某個關鍵字詞的選擇上,從「紐約市 (New York City)」變成了「紐約皇后區 (Queens, New York)」。

所以,不確定性的根源,並非來自於單次運算的隨機性,而是來自於整個系統處理工作負載方式的「不確定性」。你的答案之所以會變,是因為在你不知道的情況下,有其他人「跟你搭了同一班車」,而這改變了司機(GPU)開車的方式。

那有解決方案嗎?既然找到了問題,解決方案當然也就呼之欲出了:無論乘客有多少,永遠都開同一款標準型號的公車!

這就是論文提出的核心解法: 「批次不變性 (Batch Invariance)」 。研究人員重新設計了 LLM 中三個最關鍵的運算環節: RMSNorm (一種標準化處理)矩陣乘法 (Matrix Multiplication)注意力機制 (Attention)

這個方法的核心想法是,強制讓 GPU 無論批次大小是多少,都必須使用同一套固定的計算策略和順序。

  • 對於 RMSNorm 和矩陣乘法: 這相對單純。他們設計了一種策略,即使在乘客很少(批次很小)的情況下,也堅持使用為大批次設計的、雖然有點「殺雞用牛刀」但計算路徑固定的方法。這會犧牲一點點效能,但換來了絕對的確定性。從論文的圖表來看,這種效能損失大約在 20% 左右,在可接受範圍內。

  • 對於注意力機制: 這就複雜多了,因為它還涉及到 AI 如何處理長篇對話的「記憶」(KV Cache)。研究人員必須確保,無論一個長句子是被一次性處理,還是分段處理,其最終的計算結果都必須分毫不差。他們採用了一種「固定分割尺寸 (fixed split-size)」的策略,確保了無論處理的文本片段長短如何,底層的計算模塊大小永遠一致,於是就可以保證了結果穩定。

實驗結果非常驚人。在使用標準的 AI 模型對「告訴我關於理查・費曼的事」這個問題生成 1,000 次回答時,即使溫度設定為 0,也產生了 80 種不同的答案版本。但在換上了他們改造過的「批次不變」核心後,1,000 次的回答,每一次都一模一樣,達成了真正的確定性。

AI研究.jpg
圖/ AI生成圖片

那麼,確定性為何如此重要?

你可能會問,AI 有點隨機性不是更有趣嗎?為什麼要花這麼大力氣去消除它?

原因在於,對於許多嚴肅的應用場景,「可複製性」是科學和工程的基礎。

  • 科學研究: 如果 AI 是一個科學發現的工具,研究者必須確保他們的實驗結果是可以被他人重現的。如果 AI 每次都給出不同的答案,那麼奠基於 AI 的科學研究就成了胡說八道。

  • AI 安全與除錯: 當 AI 犯錯時,工程師需要能夠穩定地重現這個錯誤,才能定位問題並修復它。如果錯誤時而出現、時而消失,除錯將會成為一場噩夢。

  • 高風險應用: 在醫療、金融、法律等領域,我們需要 AI 的判斷是穩定且可預測的。你不會希望一個判斷腫瘤的 AI,今天看說是良性,明天看同一張片子卻說是惡性。

  • AI 訓練的穩定性: 論文還展示了一個例子。在「強化學習 (Reinforcement Learning)」這種 AI 訓練方法中,如果模型在「學習」和「實踐」這兩個階段的數值不一致,會導致訓練過程非常不穩定,甚至直接訓練失敗。而我們一旦實現了確定性推理後,AI 的學習過程效率和穩定性都大大提升。

所以,這篇論文的價值,不僅僅是解決了一個技術難題。它更深層的意義在於, 它代表了 AI 領域從一種「差不多就好」的狀態,向著更嚴謹、更可靠、更工程化的方向邁進

過去,當我們遇到數值上的微小差異時,很容易說:「沒關係,反正 AI 本來就是機率性的。」但這種「差不多先生」的心態,會阻礙我們建立真正值得信賴的 AI 系統。

Thinking Machines 的研究告訴我們,只要我們願意深入挖掘,去理解系統的每一個環節,那些看似隨機、無法解釋的「靈異現象」其實都有其物理和數學上的根源。而一旦理解了根源,我們就有能力去駕馭它、去改造它,最終建立一個真正可靠的智慧未來。

下一次,當你發現 AI 給了你不一樣的答案時,你將會知道,那可能不是因為它有了「新想法」,而只是因為在那一瞬間,有許多陌生人,悄悄地「跟你搭上了同一班車」。

延伸閱讀:Claude 3曾吐:我知道你在測試我!AI真有心智能力嗎?從「大海撈針」測試看起
行銷不必再靠感覺!調校AI讀懂人性、因果,還能識破經典啤酒尿布之謎

往下滑看下一篇文章
打造AI無法取代的人才力,聯發科技攜手Hahow for Business培育跨域人才成果豐碩
打造AI無法取代的人才力,聯發科技攜手Hahow for Business培育跨域人才成果豐碩

在AI新世代浪潮下,兼具軟實力與硬實力的「T型人才」已躍升為企業人才培訓的新焦點。以聯發科技攜手 Hahow for Business 推出的「SPARK 實習生跨域軟實力學習計畫」為例,正是企業積極布局未來、培育全方位新世代人才的具體行動。

人工智慧的快速演進,正全面重塑我們對「學習」與「人才」的想像。隨著知識獲取門檻變低、學習方式持續翻轉,企業人才培育模式也迎來嶄新變革。在這波轉型浪潮中,擅長單一領域的「I型專才」往往難以應對多元挑戰,相反的,具備專業深度與跨域協作能力的「T型人才」成為企業招募與培育的核心焦點。

以理工科學生為例,雖然在校期間累積了紮實的專業知識與技術基礎,但往往在進入職場後,因為溝通表達、協同合作與專案管理等軟實力相對薄弱,面臨諸多挑戰、無法發揮潛力。為縮短「學用落差」與提升新鮮人的職場適應力,聯發科技攜手Hahow for Business在2025年共同推出「SPARK 實習生跨域軟實力學習計畫」,將工程師的個人效能訓練藍圖,提前至實習階段。計畫透過Learn-Apply-Reflect與10%-20%-70%學習策略,打造出「自主學習→練習→實際應用」的學習循環,全面加速準聯發人的培養、為企業注入新世代的競爭力。

聯發科技與Hahow for Business以「SPARK 實習生跨域軟實力學習計畫」加速培育人才

聯發科技始終堅信,每一位年輕人都蘊含著無限的發展潛力,只要能匯聚多元能力,即可激盪出創新火花、點燃成長的力量。這樣的理念也體現在「SPARK 實習生跨域軟實力學習計畫」logo設計:6道光芒象徵聯發科技永續經營的六大基石–全球觀、創新、人才、公司治理、綠色營運與在地實踐;而5道光芒則代表個人效能聚焦的5項關鍵能力:問題分析與解決、溝通簡報與影響力、專案管理、創意思維與成長心態。

SPARK計畫為實習生提供清晰的學習路徑,結合豐富的線上學習資源、個人練習與小組作業,同時搭配實體知識萃取工作坊,形成自主學習、同儕學習與應用及反思的學習循環。讓實習生不僅可以學習知識與實用技能,並真正將軟實力應用於工作場域。舉例來說,線上課程學習涵蓋「金字塔表達法」、「定錨點架構」、「ANSVA結構」與「SMART原則」等工具,並在為期兩個月的實習中,透過每週的應用練習、知識萃取工作坊與同儕小組報告,系統化強化關鍵軟實力,讓學習不僅止於「知識的獲取」更是「行為的展現」。

hahow
圖/ 數位時代

來自國立清華大學通訊工程研究所的實習生彭同學深有感觸的說:「能進入同一間公司,代表大家的硬實力相差不大,真正決定我們能否做對事情、把事情做好,是有沒有足夠的軟實力協同合作與向上管理,建議從大學三年級開始培養,並且持續不斷精進。」

國立清華大學半導體研究學院的實習生鄭同學同樣肯定軟實力的重要性。她說:「在學校,教授指派任務通常有明確的評分指標,但在實習時,主管交付的任務往往保留很大的自由發揮空間,為確保彼此有共識,我的作法是主動思考任務的目的,以手寫筆記進行結構性思考與建立清晰的表達邏輯,在與主管進行口頭報告時,則是以『金字塔表達法–先結論、後細節』的方式進行溝通,持續修正與取得共識、精準展開下一步。」

「理工科學生很容易陷入技術細節、分享時不自覺就是滿滿的專業術語,但這樣的溝通模式未必有助於專案進展。」來自國立陽明交通大學資訊網路工程學系的實習生洪同學表示,有效的溝通應該要跳脫技術本位,站在對方角度,說出讓目標聽眾共鳴的話,才能推進合作。「透過這次實習,我學會以『定錨點架構』讓溝通內容更有邏輯與說服力,以及透過『ANSVA–Attention /Need /Solution /Visualization /Action–架構』強化提案表達,就算面對全新的領域,也能快速盤點重點,並與團隊展開更有效的協作。」

「SPARK 實習生跨域軟實力學習計畫」創造的成效十分亮眼。活動期間在校園舉辦的多元跨域校園講座滿意度高達 94.6%;而在實習階段,儘管實習生同時承擔主管指派的專案任務,平均完課率仍高達 87%,並獲得大量正面回饋。許多實習生分享:「無論未來職涯選擇何種方向,這段期間累積的軟實力,都將成為持續突破與創新的關鍵資產。」

三大學習目標,支持年輕人才快速適應跨部門協作及全球化職場環境

聯發科技長期深耕技術創新與人才培育,積極推動學生硬實力與軟實力的緊密整合,以加速新世代人才的成長與轉型。此次首度與Hahow for Business合作「SPARK 實習生跨域軟實力學習計畫」實踐三大學習目標:首先建立創新與成長心態;其次強化簡報與溝通影響力及團隊合作;最後,培養問題解決、專案管理與行動決策能力。

Hahow
圖/ 數位時代

同時參加「SPARK 實習生跨域軟實力學習計畫」與3個不同專案計畫的國立清華大學資訊工程研究所實習生李同學表示:「實習期間,我必須同時處理三個專案,時間被各種會議切割得十分零碎,參加每場會議前,我至少得花費10分鐘翻閱紀錄或回想進度,改用實習期間學會的心智地圖追蹤專案進度後,只要 1 分鐘就能快速掌握最新狀況,執行效率大幅提升。」

國立台灣科技大學電機工程研究所的實習生董同學則認為:「軟實力之所以重要,不僅因為它能幫助我們在事前做好規劃、提升溝通的精準度,更關鍵的是,隨著這些能力不斷累積,將更有勇氣面對挫折與挑戰,不會輕易喪失對科技或對人的熱情。」

整體而言,聯發科技攜手 Hahow 好學校的合作,不僅著眼於短期彌補能力缺口,更展現企業對未來人才的前膽佈局與長期投資。當理工學生兼具專業深度與跨域軟實力,學用落差得以有效縮減,人才成長曲線隨之加速,產業也能在新世代人才的驅動下持續創新,形成良性循環,進一步鞏固組織的核心競爭力。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓