只要把提示詞「說兩次」,LLM效能就升級?Google研究曝「47勝0敗」高CP值解方
只要把提示詞「說兩次」,LLM效能就升級?Google研究曝「47勝0敗」高CP值解方

在當前 AI 競爭圖譜中,效能提升往往與算力成本、推理延遲掛鉤。然而,Google Research 團隊最新的研究卻提出了一個反直覺的「低成本」方案:僅透過重複輸入指令(Prompt Repetition),即可在不增加輸出長度的前提下,顯著優化跨模型的效能表現。

要強調的是,這項技術不僅僅是「重複一遍」,它是對因果語言模型(Causal LLMs)注意力機制缺陷的一種技術性補償,為企業級 AI 部署提供了一條極高性價比的升級路徑。

因果語言模型的「單向注意力」瓶頸

為什麼「說兩次」就會對AI的生成結果有幫助?

這是因為當前主流 LLM 架構多為 Causal Language Model,其處理序列的底層邏輯存在一個物理限制:因果性遮罩(Causal Masking)。在模型處理過程中,第 N 個 Token 只能觀察到第 1 至 N-1 個 Token,無法預見「未來的資訊」。

不要慌!這邊所謂的「未來資訊」,主要是指「輸入提示詞(Input Prompt)中尚未讀到的後半段內容」

假設提示詞結構: 「<問題> <文章背景>」

那所謂的因果性遮罩,就是指AI模型讀到開頭的 「<問題>」 時,它在運算當下完全看不到後面還有 「<文章背景>」,因為模型在讀取提示詞時,跟人類一樣也是由左至右、一個字一個字讀的。這對模型理解問題造成了困難,因為它必須在缺乏背景資訊的情況下先處理「問題」。

這就是為什麼提示詞的順序會影響表現。如果您把問題放在最後,模型讀到問題時已經看過文章了;但如果把問題放在最前,模型就「看不到未來(後面的文章)」。無論是哪種順序,都還是讓AI的注意力維持單向。

提示詞重複如何破解「單向注意力」瓶頸?

根據這份報告的發現,所謂的「提示詞重複」(Prompt Repetition)操作非常直觀且簡單。報告中明確指出,這項技術的核心是將原本的輸入 「<提示詞>」 轉換為 「<提示詞><提示詞>」。操作原理如下:

調整後提示詞結構: 「<問題><文章背景> <問題><文章背景>」

其效果就是,當模型讀到第二遍的開頭(即第二個 <問題>)時,原本屬於「未來」的 <文章背景>(在第一遍中),現在已經變成了「過去」的歷史資訊。

報告中提到,這種近乎土炮的方式之所以有用,是因為讓提示詞中的每一個 Token 都能夠「注意到(Attend to)」提示詞中的其他所有 Token,從而模擬出雙向注意力(Bidirectional Attention)的效果。

這種提示詞「說兩次」的招數,適用於哪些情境?

研究針對 Gemini 2.0、GPT-4o、Claude 3.7 及 DeepSeek V3 等 7 種模型進行測試,在 70 項基準測試中取得了 47 勝 0 敗 的驚人紀錄。

以下歸納出最適合使用此招數的兩大情境:

不要求模型推論時

這是最關鍵的判斷標準。如果您的應用場景不需要模型「一步步思考」(Chain of Thought, CoT),這招效果最好。

  • 適用原因: 當模型不進行 CoT 推理時,它往往是一次性直出答案。報告顯示,在這種「非推理模式」下,提示詞重複在 70 個測試中贏了 47 次,且0 次失敗
  • 反之: 如果您已經使用了「Think step by step」等提示詞,重複輸入的效果會變成中性或僅些微提升(5 勝 1 敗 22 平),因為 CoT 本身就會讓模型在輸出時自我重複部分資訊,使得輸入端的重複變得多餘。
模型比較
研究用多個熱門模型(Gemini、GPT、Claude、DeepSeek)和七種基準測試驗證,結果顯示「不開啟推理」時,重複提示在 70 組測試裡贏了 47 組、零敗。
圖/ Google

長文本中的「精確檢索」與「定位」

如果您的任務是要求模型在一段很長的文字中,找出某個特定的資訊,這招的效果最為驚人。

具體案例:

  • 找名字(NameIndex): 例如給定 50 個名字,問「第 25 個名字是誰?」。在 Gemini 2.0 Flash-Lite 的測試中,準確率從原本的 21.33% 飆升至 97.33%

  • 找夾心(MiddleMatch): 例如給定一長串名單,問「誰位於某甲和某乙的中間?」。這類任務需要模型精確定位前後關係,重複提示詞帶來的增益非常強勁。

  • 建議: 對於這類較困難的查找任務,報告甚至建議可以考慮重複 2 次(即總共輸入 3 遍,Repetition x3),效果可能比標準的重複 1 次更好。

重複提示詞不是萬靈丹?

根據這份報告的實驗結果與文獻回顧,雖然「提示詞重複」在許多情況下能顯著提升效能,但在以下 2種特定情境中,此方法可能無效:

已經啟用「推論模式」或思維鏈 (CoT) 時

這是最主要的不適用情境。如果您在提示詞中加入了「一步步思考」(Think step by step)或是使用了像 OpenAI o1 、Gemini 3 這類內建強大推理能力的模型,重複提示詞的效果會大打折扣。

  • 效果判定: 結果呈現中性至僅些微正面(實驗中為 5 勝 1 敗 22 平),不再具有壓倒性優勢,。
  • 原因: 報告指出,當模型進行推理(Reasoning)時,它們通常會在輸出的過程中自己重複提示詞的關鍵部分。既然模型已經會在輸出端「自我重複」,那麼在輸入端手動重複就顯得多餘且沒必要了。

提示詞已經「極度」過長

雖然報告強調「重複提示詞」通常不影響生成延遲,但在極端情況下會有物理限制。例如原本的提示詞已經非常接近模型的 Context Window(上下文視窗)上限,再重複一次可能會導致超出長度限制而無法執行

報告在附錄中提到,對於 Anthropic 的模型(Claude Haiku 和 Sonnet),當處理非常長的請求(例如 NameIndex 任務搭配 3 次重複)時,延遲確實會增加。這可能是因為「預填充(Prefill)」階段的運算時間變長了。

操作要點:真的重複貼上就好

若原本的提示詞包含了「背景資訊(Context)」與「問題(Question)」,操作上真的只需要將這整段內容完整複製並貼上一次即可。

通用公式:

最終提示詞 = [完整原始提示詞] + [完整原始提示詞]

舉例而言,一段沒有重複的原始提示詞如下:

這裡有一份名單:Dale Lopez, Peter Sanchez, Allen Harris...(略)。 請問名單上的第 25 個名字是誰?

那麼,符合報告定義的「重複提示詞」如下:

這裡有一份名單:Dale Lopez, Peter Sanchez, Allen Harris...(略)。 請問名單上的第 25 個名字是誰? 這裡有一份名單:Dale Lopez, Peter Sanchez, Allen Harris...(略)。 請問名單上的第 25 個名字是誰?

值得注意的是,重複的範圍必須是整個提示詞。如果只是單純重複「問題」部分(例如只重複問句而不重複文章背景),在相關研究中顯示並無效果。

結語:懂推論的模型就別用這招了

總結來說,報告測試並驗證了以下模型適用於「重複提示詞」的技巧,可以發現幾乎都是API成本較低的非推論模型。

  • Google: Gemini 2.0 Flash, Gemini 2.0 Flash Lite
  • OpenAI: GPT-4o, GPT-4o-mini
  • Anthropic: Claude 3 Haiku, Claude 3.7 Sonnet
  • DeepSeek: Deepseek V3

要注意的是,若您原本使用的就是 Gemini 3 這類推論模型,「重複提示詞」的效果可能就不會這麼顯著。

最後,Prompt Repetition 可說是 LLM 應用層的一次「優雅補救」。它餘解決了因果模型先天的結構短板。在追求 AGI 的路上,回歸底層邏輯的簡單方案,往往才是最具商業穿透力的破局點。

延伸閱讀:Google公布Gemini收費新制!拆分「思考型」與「Pro」額度,一表看懂方案差異

資料來源:arxiv

本文初稿為AI編撰,整理.編輯/ 李先泰

往下滑看下一篇文章
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路

「代理式 AI 」(Agentic AI)的創新服務正在重新塑造企業對AI的想像:成為內部實際運行的數位員工,提升關鍵工作流程的效率。代理式AI的技術應用清楚指向一個核心趨勢:2025 年是 AI 邁向「代理式 AI」的起點,讓 AI 擁有決策自主權的技術轉型關鍵,2026 年這股浪潮將持續擴大並邁向規模化部署。

面對這股 AI Agent 浪潮,企業如何加速落地成為關鍵,博弘雲端以雲端與數據整合實力,結合零售、金融等產業經驗,提出 AI 系統整合商定位,協助企業從規劃、導入到維運,降低試錯風險,成為企業佈局 AI 的關鍵夥伴。

避開 AI 轉型冤枉路,企業該如何走對第一步?

博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題、生成內容的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工,應用場景也從單一任務延伸至多代理協作(Multi-Agent)模式。

「儘管 AI 前景看好,但這條導入之路並非一帆風順。」博弘雲端技術維運中心副總經理暨技術長宋青雲綜合多份市場調查報告指出,到了 2028 年,高達 70% 的重複性工作將被 AI 取代,但同時也有約 40% 的生成式 AI 專案面臨失敗風險;關鍵原因在於,企業常常低估了導入 GenAI 的整體難度——挑戰不僅來自 AI 相關技術的快速更迭,更涉及流程變革與人員適應。

2-RD096270.jpg
博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工。面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時加速 AI 落地。
圖/ 數位時代

正因如此,企業在導入 AI 時,其實需要外部專業夥伴的協助,而博弘雲端不僅擁有導入 AI 應用所需的完整技術能力,涵蓋數據、雲端、應用開發、資安防禦與維運,可以一站式滿足企業需求,更能使企業在 AI 轉型過程中少走冤枉路。

宋青雲表示,許多企業在導入 AI 時,往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。

轉換率提升 50% 的關鍵:HAPPY GO 的 AI 落地實戰路徑

博弘雲端這套導入方法論,並非紙上談兵,而是已在多個實際場域中驗證成效;鼎鼎聯合行銷的 HAPPY GO 會員平台的 AI 轉型歷程,正是其最具代表性的案例之一。陳亭竹說明,HAPPY GO 過去曾面臨AI 落地應用的考驗:會員資料散落在不同部門與系統中,無法整合成完整的會員輪廓,亦難以對會員進行精準貼標與分眾行銷。

為此,博弘雲端先協助 HAPPY GO 進行會員資料的邏輯化與規格化,完成建置數據中台後,再依業務情境評估適合的 AI 模型,並且減少人工貼標的時間,逐步發展精準行銷、零售 MLOps(Machine Learning Operations,模型開發與維運管理)平台等 AI 應用。在穩固的數據基礎下,AI 應用成效也開始一一浮現:首先是 AI 市場調查應用,讓資料彙整與分析效率提升約 80%;透過 AI 個性化推薦機制,廣告點擊轉換率提升 50%。

3-RD096215.jpg
左、右為博弘雲端事業中心副總經理陳亭竹及技術維運中心副總經理暨技術長宋青雲。宋青雲分享企業導入案例,許多企業往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。
圖/ 數位時代

整合 Databricks 與雲端服務,打造彈性高效的數據平台

在協助鼎鼎聯合行銷與其他客戶的實務經驗中,博弘雲端發現,底層數據架構是真正影響 AI 落地速度的關鍵之一,因與 Databricks 合作協助企業打造更具彈性與擴充性的數據平台,作為 AI 長期發展的基礎。

Databricks 以分散式資料處理框架(Apache Spark)為核心,能同時整合結構化與非結構化資料,並支援分散式資料處理、機器學習與進階分析等多元工作負載,讓企業免於在多個平台間反覆搬移資料,省下大量重複開發與系統整合的時間,從而加速 AI 應用從概念驗證、使用者驗收測試(UAT),一路推進到正式上線(Production)的過程,還能確保資料治理策略的一致性,有助於降低資料外洩與合規風險;此對於金融等高度重視資安與法規遵循的產業而言,更顯關鍵。

陳亭竹認為,Databricks 是企業在擴展 AI 應用時「進可攻、退可守」的重要選項。企業可將數據收納在雲端平台,當需要啟動新型 AI 或 Agent 專案時,再切換至 Databricks 進行開發與部署,待服務趨於穩定後,再轉回雲端平台,不僅兼顧開發效率與成本控管,也讓數據平台真正成為 AI 持續放大價值的關鍵基礎。

企業強化 AI 資安防禦的三個維度

隨著 AI 與 Agent 應用逐步深入企業核心流程,資訊安全與治理的重要性也隨之同步提升。對此,宋青雲提出建立完整 AI 資安防禦體系的 3 個維度。第一是資料治理層,企業在導入 AI 應用初期,就應做好資料分級與建立資料治理政策(Policy),明確定義高風險與隱私資料的使用邊界,並規範 AI Agent「能看什麼、說什麼、做什麼」,防止 AI 因執行錯誤而造成的資安風險。

第二是權限管理層,當 AI Agent 角色升級為數位員工時,企業也須比照人員管理方式為其設定明確的職務角色與權限範圍,包括可存取的資料類型與可執行的操作行為,防止因權限過大,讓 AI 成為新的資安破口。

第三為技術應用層,除了導入多重身份驗證、DLP 防制資料外洩、定期修補應用程式漏洞等既有資安防禦措施外,還需導入專為生成式 AI 設計的防禦機制,對 AI 的輸入指令與輸出內容進行雙向管控,降低指令注入攻擊(Prompt Injection)或惡意內容傳遞的風險。

4-RD096303.jpg
博弘雲端技術維運中心副總經理暨技術長宋青雲進一步說明「AI 應用下的資安考驗」,透過完善治理政策與角色權限,並設立專為生成式 AI 設計的防禦機制,降低 AI 安全隱私外洩的風險。
圖/ 數位時代

此外,博弘雲端也透過 MSSP 資安維運託管服務,從底層的 WAF、防火牆與入侵偵測,到針對 AI 模型特有弱點的持續掃描,提供 7×24 不間斷且即時的監控與防護。不僅能在系統出現漏洞時主動識別並修補漏洞,更可以即時監控活動,快速辨識潛在威脅。不僅如此,也能因應法規對 AI 可解釋性與可稽核性的要求,保留完整操作與決策紀錄,協助企業因應法規審查。

「AI Agent 已成為企業未來發展的必然方向,」陳亭竹強調,面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時,加速 AI 落地。在這波變革浪潮中,博弘雲端不只是提供雲端服務技術的領航家,更是企業推動 AI 轉型的策略戰友。透過深厚的雲端與數據技術實力、跨產業的AI導入實務經驗,以及完善的資安維運託管服務,博弘雲端將持續協助企業把數據轉化為行動力,在 AI Agent 時代助企業實踐永續穩健的 AI 落地應用。

>>掌握AI 應用的新契機,立即聯繫博弘雲端專業顧問

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓