訓練AI學山頂洞人說話,真的能省下75%Token費用?Reddit暴紅提示詞一次看
訓練AI學山頂洞人說話,真的能省下75%Token費用?Reddit暴紅提示詞一次看

一篇在 Reddit 的 r/ClaudeAI 社群引發超過 400 則留言的貼文,標題只有一句話:「教 Claude 像山頂洞人一樣說話,省了 75% 的 token。」

貼文底下,有人笑到不行,有人認真拆帳算錢,最高票留言直接引用美劇《辦公室》(The Office)的經典台詞:「Why waste time say lot word when few word do trick?」(能用少字幹嘛用多字?)

這不只是搞笑。

所有用過 AI 的人都有同一個痛點:你問一句話,AI 回你一整面牆的文字。「讓我為你解釋一下……」、「以下是我的分析……」、「總結來說……。」這些廢話每一個字都在燒錢,至少對按量付費的 API 用戶來說是這樣。

這篇文章拆解這個「山頂洞人Prompt」到底在做什麼、真的能省多少錢,以及你不用裝山頂洞人也能達到同樣效果的正經做法。

山頂洞人 Prompt 在幹嘛?

原理很簡單:在 Claude Code 的系統指令(System Prompt)裡加入一組規則,強制 AI 用最短的句子回覆。

原始 Prompt 長這樣:

Rules:
# In caveman voice: "Me tool first. Me result first. Me no explain. Me stop."
- Use very short phrases for meta messages, e.g. "Tool work", "Result ready"
- Prefer 2–4 word phrases whenever possible.
- No explanations unless I explicitly ask for details.
- After tools return, give the result first in the shortest possible form. Then stop.
- Only natural language should be "caveman style". Code, data, and commands must remain precise and normal.

效果是這樣的:

情境 正常回覆 山頂洞人回覆
搜尋完成 「我已經執行了網頁搜尋工具,以下是找到的結果……」 「搜了。結果:」
修好 bug 「我發現問題出在第 42 行,缺少了一個 null check,我已經加上修正……」 「L42 少 null check。修了。」
讀取失敗 「很抱歉,我無法讀取這個網頁,因為它被付費牆擋住了……」 「讀不了。付費牆。貼原文。」

每次對話省下 6 到 10 個 token 的廢話,累積 8 到 10 輪,一個任務就省下 50 到 100 個 token。

真的能省 75% 嗎?拆開來算

要理解這招的實際效益,得先知道 AI 怎麼計費。API 費用分兩種:輸入 token(你傳給 AI 的內容)和輸出 token(AI 回覆你的內容)。關鍵在於,輸出比輸入貴非常多:

模型 輸入(每百萬 token) 輸出(每百萬 token) 輸出 ÷ 輸入
Claude Sonnet 4.6 3 美元 15 美元 5 倍
Claude Opus 4.6 5 美元 25 美元 5 倍
GPT-4o 2.5 美元 10 美元 4 倍
Gemini 2.5 Pro 1.25 美元 10 美元 8 倍

輸出 token 貴 4 到 8 倍,壓縮輸出長度確實能省錢。但 Reddit 討論裡被頂上去的反對意見也點出了盲點:每一輪對話,AI 都會重新讀取整段聊天記錄,這個「輸入」才是真正的成本大頭。

簡單來說,對話越長,輸入成本越高,你省下的那幾十個輸出 token 佔比就越小。

結論是:單看輸出,確實能省 50% 到 75%。但算進輸入成本,實際總帳單大概只降 10% 到 20%。不是零,但也不是標題寫的那麼誇張。

小心!裝笨可能真的變笨

Reddit 討論裡最值得注意的一則留言指出:你叫 AI 扮演一個比較不聰明的角色,它的推理品質可能會跟著下降。

這不是玩笑話。在 prompt 工程的實務中,persona(角色設定)會影響模型的推理行為。你告訴它「你是一位資深工程師」,它的回答會比「你是一個山頂洞人」更結構化、更嚴謹。山頂洞人 prompt 壓縮了表達,但也可能連帶壓縮了思考。

對於簡單任務(查檔案、跑指令、回報結果),影響微乎其微。但如果你需要 AI 做複雜推理、架構設計、或多步驟分析,過度壓縮回覆可能讓它跳過關鍵的中間步驟。

不用當山頂洞人,也能達到同樣效果

好消息是,你不需要真的用山頂洞人語氣。以下是一個正經版本的精簡指令,效果相同但不會觸發「裝笨」風險:

回覆規則:
- 直接給結果,不要前言、不要總結
- 使用工具後,只回報結果,不描述過程
- 除非我主動問,否則不解釋你在做什麼
- 程式碼和資料維持完整精確,只壓縮自然語言

把這段放進你的 System Prompt(API 用戶)或 CLAUDE.md(Claude Code 用戶)就會生效。

這招適合誰?

不是所有人都需要省 token。以下是快速判斷:

  • API 按量付費的開發者:有感,尤其是高頻呼叫的自動化場景,長期累積省下的金額可觀
  • Claude Code 重度使用者:Pro 或 Max 方案有用量上限,精簡回覆代表同樣額度內能多做幾件事
  • 一般 ChatGPT / Claude 網頁版訂閱用戶:幾乎無感。訂閱方案是固定月費,省 token 不會讓你少付錢

如 Reddit 上 400 則留言的共識:這是一個 A+ 的搞笑帖,同時也是一個真正聰明的 output token 優化技巧,但它不是魔法。

真正想認真省錢的 API 開發者,更該優先研究的是 prompt caching(快取命中可省 90% 輸入成本)和 Batch API(非即時任務一律五折),這兩招對總帳單的影響遠大於壓縮回覆長度。

山頂洞人教會我們的,與其說是一個具體技巧,不如說是一個正確的直覺:你付最多錢的地方,就是最值得優化的地方。

資料來源:Reddit r/ClaudeAI 討論串Anthropic API 定價頁OpenAI API 定價頁Google Gemini API 定價頁

本文初稿為AI編撰,整理.編輯/ 李先泰

往下滑看下一篇文章
從會員數據到 AI 行銷:Vpon 打造零售業 AI-Ready 數據中台,提升決策效率
從會員數據到 AI 行銷:Vpon 打造零售業 AI-Ready 數據中台,提升決策效率

在 AI 快速進入企業營運核心的時代,數據不再只是被動的分析素材,而是 AI 模型運作與決策優化的重要基礎。

零售品牌積極累積大量第一方數據,例如會員資料、交易紀錄以及線上與線下行為數據,但因這些數據分散於不同系統,缺乏統一的身分識別機制以及明確的元數據(Metadata)定義,導致難以整合與分析,同時,也影響 AI 對這些數據資產的理解與應用。

為解決上述挑戰,Vpon 威朋將累積十餘年的實務經驗轉化為產品與服務,如 Audience Center 與 AI Agent 等解決方案,並透過專業顧問團隊協助企業完成數據收集、清理、整合與分析等關鍵流程,從資料清理到 AI-Ready 再到落地應用,讓行銷與業務團隊能以自然語言將數據查詢與分群受眾逐步自動化,大幅縮短過去仰賴技術與分析團隊溝通需求與開發分析邏輯的時間。

Vpon 助零售業打造 AI-Ready 數據基礎,以 Audience Center 驅動業務商機

如何建立 AI Ready 數據基礎建設?

Vpon 威朋數據科學經理廖宜楷指出,在 AI 驅動的時代,數據的品質決定模型價值。其中四個關鍵分別是:建構標準化的數據採集與處理管線,透過統一的工程規範,確保所有進入系統的數據在格式、維度與質量上具備高度一致性;其次是定義語義清晰的元數據(Metadata)體系,確保數據能夠被 AI 理解與使用,從而產出具備可靠性的產出結果;再來是打破企業內部的「數據孤島」, 透過完整整合線上(Web/App)行為與線下(POS/CRM)會員資訊,建構全方位的會員數據輪廓,精準捕捉消費者的跨通路行為軌跡。最後,數據的價值隨時間遞減,AI 的決策品質取決於數據的「新鮮度」,因此,數據的持續更新與自動化維護,不僅能讓企業在動態市場中保持敏銳,還可進一步深化會員輪廓分析的即時性。

舉例來說,在 Vpon 團隊的協助下,台灣百貨零售龍頭透過整合 Web 與 App 行為資料,並將線上與線下數據集中於數據中台進行分析,將傳統耗時數小時的複雜資料庫分析工作縮短至秒級回應,並基於此高效率基礎,進一步開發不同業務主題的預測與分群模型,提升行銷精準度與營運決策的敏捷性。

扎實數據基礎的價值落實:Audience Center 如何賦能企業實現「數據即戰力」?

有了堅實的數據底座後,下一步是透過 Audience Center 將數據資產轉化為商業動能。

廖宜楷指出,在變化快速的零售與數位行銷市場中,速度就是競爭力。然而,仍有許多企業在數據應用上面臨嚴重的溝通與技術斷層。過去,當行銷或業務人員需要數據支持時,通常得花費繁複的內部流程申請需求、討論需求,才會進到後續的資料清理、建模與分析,最後才能得到想要的分析結果或行銷名單。這種以「週」為單位的進程,不僅拖慢了決策效率,更讓企業在競爭激烈的市場中錯失先機。

Audience Center 的核心價值在於徹底翻轉上述流程,將數據處理轉化為數據服務,透過直覺的介面與背後扎實的數據基礎支撐,讓非技術人員不用編寫程式碼,即可自行組合維度,大幅縮短從需求到執行的距離,將原先需要耗時數週的作業流程優化成秒級產出。

「Audience Center 的導入,不僅有助於提升效率,更賦予企業快速試錯與精準捕獲趨勢的能力,讓數據真正成為驅動業務增長的引擎。」廖宜楷如此總結。

#1 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋數據科學經理 廖宜楷
圖/ 數位時代

以 AI Agent 重塑數據使用方式,讓數據更貼近決策流程

「Vpon 除提供 Audience Center 協助品牌發揮第一方數據資產價值、提供豐沛的第三方數據助品牌深化對客戶輪廓的掌握度,更推出 AI Agent 服務讓品牌與行銷人員能更直覺地使用數據。」Vpon 威朋數據科學資深總監陳文謙表示,在數位轉型的過程中,許多企業面臨的挑戰不僅是數據整合,更包括如何讓不同部門的人員都能更即時協作與應用數據,有鑑於此,Vpon 推出四種 AI Agent 協助企業分析與應用數據,極大化第三方數據成效:

第一,以 Reporting Agent 讓高階主管或行銷人員可以自然語言查詢數據與生成報表,即時掌握市場動態,加速決策下達與決策品質。

第二,透過 Insight Agent 確保數據分析不受分析人員的主觀意識或產業知識侷限,可以輕鬆完成跨領域數據分析、快速挖掘潛在市場機會與消費者洞察。

第三,藉由 Audience Agent 將客戶分群方式從規則導向(Rule-based)轉變為關聯導向,以關聯分析擴大受眾範圍,協助品牌找出更多潛在客群。

第四,推出 Creative Agent 協助行銷人員分析廣告素材表現的根本原因,釐清受眾喜歡的素材跟不喜歡的素材,藉此優化廣告投放內容,持續提升轉換率。

陳文謙表示:「透過 AI Agent 的輔助,品牌不僅能更快完成數據分析,也能將分析結果直接轉化為行銷策略與創意建議,降低跨部門溝通成本,讓數據真正參與決策流程。」

#2 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋數據科學資深總監 陳文謙
圖/ 數位時代

鏈結數據生態夥伴,以跨境數據放大行銷效益

除了協助品牌主建立 AI Ready 的數據基礎環境並提升數據使用效率,Vpon 也持續拓展數據生態圈,協助零售品牌更精準布局海外市場。

Vpon 威朋產品行銷資深經理邱心儒表示,跨境行銷過去多仰賴經驗與市場直覺,但透過數據整合與 AI 分析,品牌能更精準理解海外消費者的旅遊與消費行為。

以 Vpon 與日本 Loyalty Marketing Inc. 合作為例說明,透過雙方的獨家合作,企業可以結合 Ponta 超過一億的會員數據、問卷調查結果以及 Vpon 的七大數據來源,深入分析日本消費者的消費偏好與購買力——包括哪些日本族群對台灣品牌最感興趣、最受歡迎的台灣商品類型,以及不同客群的價格敏感度與回購行為等,將行銷決策從過往的經驗判斷轉變為精準的數據洞察,成為品牌出海的重要工具。

簡言之,對零售品牌而言,跨境數據是理解海外旅客真實樣貌的一大利器,也能進一步優化廣告投放、內容策略與商品布局,讓品牌在拓展國際市場時,可以更有效率地接觸潛在客群,放大行銷效益。

#3 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋產品行銷資深經理 邱心儒
圖/ 數位時代

展望未來,Vpon 將持續擴展數據生態圈並優化產品服務,幫助零售品牌從數據整合、AI 分析到市場決策建立完整的數據應用循環,希望以數據夥伴的角色與品牌共同成長,打造互利共贏的數據生態。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
AI全球100+台灣20
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓