曾是AI程式界新寵,Cursor營收破5億美元為何還要變相漲價?撕開AI新創商業模式的殘酷真相
曾是AI程式界新寵,Cursor營收破5億美元為何還要變相漲價?撕開AI新創商業模式的殘酷真相

當一家新創公司估值逼近100億美元的門檻時,大家期望看到的是堅不可摧的商業護城河,以及對未來盈利模式的清晰藍圖。但是這在AI時代,或者說以大語言模型(LLM)為應用基礎的新創來說,可能不是這麼回事。

2025年6月的一場堪比好萊塢災難片的公關危機發生了:曾被譽為AI程式界新寵的Cursor,在短短幾週內,因為調整收費方案,將其最忠誠的用戶變成了最憤怒的批評者。這不是一場關於功能迭代的小爭論,而是一場關於AI新創商業模式是否可行的殘酷檢視。

Cursor的母公司Anysphere從2024年12月至今,估值幾乎翻了4倍,並聲稱年營收(ARR)已達5億美元。擁有如此「含著金湯匙出生」的背景,他們為何還要選擇一個會讓用戶氣到跳腳的瘋狂漲價策略?答案殘酷且直白:他們必須想辦法賺錢。

這場定價混亂,揭示了AI應用層新創正試圖從「VC貼補」的溫室,掙扎著走向現實世界的生存法則。

AI程式新寵的「背叛」:從無限制使用到44美元的帳單驚喜

Cursor產品的核心賣點,是提供一套流暢的AI程式碼輔助工具,包括程式碼自動完成、聊天輔助介面和程式碼自動產生模式。然而,Cursor在許多開發者心中,曾憑藉其優異的速度和強大的自動完成能力(特別是整合自動補全功能後),讓資深開發者甚至願意每月花20美元(約新台幣600元)購買Cursor Pro方案,只為了那「眨眼之間」的編輯速度。

結果.jpg
可以透過自然語言,要求Cursor生成出特定的網頁功能。
圖/ Cursor AI

但這份信任,卻在2025年年中開始動搖。

Cursor Pro的定價策略在2025年1月至今經歷了幾次關鍵轉變,最引爆爭議的變化發生在6月16日。原先的Pro方案提供了500次最高級的模型請求,超過之後會改以性能較差的模型運行。然而Cursor新的計價方式從「請求次數」轉向了更難以捉摸的token用量(AI模型處理語言數據的基本單位),如果今天用完了一定的運算量,使用者將會收到額外的費用。

白話的概念是,以前你支付20美元,可以命令模型跑500次,來到第501次請求時,也只是用比較低階的模型運作而已,不需要支付額外費用;現在,這20美元則更像是一個儲存錢包,Cursor會根據你實際消耗的語言數據來扣這個錢,所以如果你使用Sonnet 4模型這種高階、高成本的模型,20美元的額度大約只能支付225次請求,如果是使用GPT 4.1模型,20美元的額度則能支付650次請求。

各模型使用成本與用量.jpg
越高階的模型,成本也越高。

因此表面上看起來都是20美元,用戶實際能獲得的服務次數會因為「使用的模型」和「每次明令的複雜度」(token消耗量)而大幅波動。

那為何這會成為公關危機導火線?因為Cursor對外溝通時,刻意模糊了「便宜、速度優先的基礎服務」與「昂貴、智慧優先的高級服務」之間的界線。以下是Cursor部落格官方的說明:

本週將調整並提升Pro方案的權益。預設情況下,Pro方案將從「請求數限制」改為「運算量限制」;所有使用者每月都可依API價格獲得至少20美元的模型推理額度。配合此變更,我們將開放對「Auto」模型的無限制使用,並移除所有工具呼叫的限制。現有使用者如偏好,也可選擇維持「500次請求上限」的方式。

這裡的細節是「Auto模式」。所謂的「Auto模式」,是指Cursor會根據當前用量自動配置最有空的模型給使用者,就像是派車系統,系統會自動分配當時最快抵達、最不忙碌的車給你,可能是比較貴的豪華車(如Sonnet 4),也可能是比較便宜的標準車(如GPT 4.1或更快的模型)。

但是對於已經習慣Pro方案的Cursor用戶來說,大多都手動選擇自己需要的模型——絕大部分都是高成本的高階模型。所以在未能查明差異的情況下,不知不覺間就額外支付了諸多費用。

一位在Reddit社群上「吃瓜」的開發者說,他從來沒達到過舊版的限制,但在新方案上,他一天內就花光了$20美元的月費額度,並額外產生了$18美元的超額費用,總月費直逼40美元。另有用戶回報,超額費用甚至可能超過44美元。

面對社群的排山倒海的怒火和「徹底耗盡社群好感」的批評,Cursor不得不在7月4日發出道歉聲明,坦承這次定價溝通「不到位」,並承諾將全額退還6月16日至7月4日期間產生的意外超額費用。

都5億營收了為何還要變相漲價?背後是AI商業邏輯的「死亡谷」

Cursor這次的定價災難可能是單純因為溝通不良而造成的公關危機,但很顯然沒這麼簡單,這背後可能是整個AI應用新創可能都要經歷的集體焦慮,也就是商業模式與成本結構的根本挑戰,因為就連Cursor的競爭對手GitHub Copilot也在同月份漲價了。

困境一:API介面層的脆弱性

這或許是AI應用新創最不重要、卻也最無法逃避的命題:缺乏真正的技術護城河、被視為是一個包裹了其他公司AI模型的「Wrapper」。

「這些包裝層公司的整個商業模式,都取決於別人不擁有或控制的技術。」一位Reddit用戶精準地點評了這種脆弱性。當底層模型供應商(如OpenAI)調整API價格,或推出更強大的功能時,Cursor這類應用層公司就會被夾在維護用戶滿意度和保持獲利的兩難之間。

困境二:無法負荷的單位經濟

像是Cursor、GitHub Copilot、Lovable這類AI應用層新創,本質上是一個「高科技中間商」,他們不自己訓練或運行最貴的底層大模型,而是透過API接口,向供應商(如OpenAI、Anthropic、Google或xAI)購買運算資源,再將這些服務包裝成工具賣給開發者。

假設用戶輸入一個指令(無論是問答、補全程式、還是代理模式),首先會產生的成本是輸入的token,而且用戶輸入的提示詞、程式碼或專案上下文越長,輸入token成本就越高,而模型推理後生成的回覆、程式碼或Agent的「思考過程」,則會形成輸出token的成本,而且因為經過推理和思考,輸出token的價格通常會高於輸入token。

也就是說,在不考慮其他固定營運成本的情況下,AI應用新創的成本結構是:指令次數 ×(輸入token成本+輸出token成本)。從中就可以看出Cursor改變定價方式的原因:過去以次數計算是極不合理的,因為後面的「輸入token成本+輸出token成本」波動極大,「單純問答」和「代理模式」所需要的語言數據量極不相同、消耗的token量級也不一樣,所以Cursor才會改以波動性高的「token用量」定價。

知名創投a16z更值機計算了AI寫程式的成本

如果你的程式碼量有10萬token,使用Claude Opus 4.1的推理模式,並產生1萬單位的輸出與思考token,現在的計價成本是每百萬個輸入token為15美元,每百萬個輸出token則是每百萬75美元。
輸入成本:10萬token(0.1M token)×15/Mtoken=1.50。
輸出成本:1萬token(0.01M token)×75/Mtoken=0.75。
總計:1.50+0.75=2.25美元。

也就是說,每次查詢的成本約為2.5美元。如果每小時3次查詢、每天7小時、每年200天,年成本約為$10,000美金。這顯然不是每個人每月20美元收入可以填平的成本。

Cursor自己也坦承,「最複雜的指令需求成本,比單純的指令高出一個量級。」這意味著他們在舊的固定價格下,很可能正在虧本銷售,尤其是對那些使用最多token用量的「超重度級用戶」(Power Users)而言。

困境三:重度用戶的「原罪」與定價模式的漏洞

從上述解析,我們可以看出Cursor的第三個挑戰:超重度級用戶佔比過多。

雖然並沒有公開資料顯示Cursor有多少高級用戶,SaaStr創辦人Jason Lemkin以吃到飽的訂閱商業模式做了簡單的計算:他假設一家擁有1,000個用戶、每月收取20美元訂閱費的公司,每月總營收為2萬美元,在健康的用戶組成下(60%輕型、30%典型、8%重度、2%超重度用戶),利潤率可以達到55.7%;但如果重度用戶和超重度用戶佔比來到10–15%,每月會虧損75美元,利潤率僅有−0.4%。

「AI新創們一直都用創投的錢來掩蓋這個問題。」Jason Lemkin直言,一旦投資人開始要求獲利,這場「VC貼補」的慷慨盛宴就必須結束,AI應用新創也必須檢視自己的商業模式是否可行。

Cursor的執行長Michael Truell也坦承:「我們的確比較喜歡按月計價的方式,但是從成本結構來說,這已經不太可行。」也就是說,期待AI應用新創繼續以類似SaaS新創以人頭為單位的收費方式已經不現實了,儘管這在財務預測上來說確實更好計算,但終究敵不過逐漸被蠶食的利潤。

Cursor共同創辦人暨執行長Michael Truell.jpg
Cursor共同創辦人暨執行長Michael Truell坦言,Cursor必須調整收費模式。
圖/ X

大語言模型成本降幅比雲端快,為何AI新創卻不像SaaS賺錢?Zeabur創辦人:大家都想用最高級的模型

那為何SaaS的收費方式可行?這得益於雲端設施的成本大幅降低,而對AI應用新創來說,他們仰賴的基礎設施就是大語言模型,值得注意的是,大型語言模型的成本,其實也是持續降低的。

大語言模型的成本正經歷著一個被稱為「LLM flation」的趨勢,跌幅速度相當驚人。根據a16z的統計,自2021年GPT-3公開推出以來,LLM推理的成本已大幅下降,達到GPT-3級別性能的最便宜模型,從2021年11月的每百萬token 60美元,下降到撰文時的每百萬token 0.06美元,這代表成本在3年內下降了1,000倍,換句話說,同性能的大語言模型推理成本,正以每年10倍的速度下降。

LLM模型成本下降速度.jpg
a16z整理出LLM的費用,是以每年10倍的速度在下降。
圖/ 截圖自a16z部落格

這個速度跟雲端服務降低的速度是天差地遠:在2010年到2015年間,亞馬遜網路服務(AWS)的S3 Standard價格下降了84%;2010年到2014年間,Google Cloud Platform(GCP)的標準儲存價格下降了85%;在2010年到2017年間,Azure的Blob LRS價格則下降了87%。

然而,大語言模型的成本降幅雖然高,本質上跟雲端服務還是不同,因為SaaS新創的「利潤魔法」在於,產品一旦建構完成,服務新客戶的邊際成本趨近於零,但AI應用新創不同,每一次的API呼叫都會產生實質的費用,邊際成本並非零。Cursor的數據也顯示,AI新創的運算/託管成本佔營收的比例,在一年內從24%飆升至50%。

Zeabur創辦人暨執行長林沅霖對此表示,「token成本確實不斷下降,但同時也不斷出現新的更好的模型,大家為了更好的效果,肯定都是追求最好的模型,而更好的模型同時又更需要算力,所以成本會增加。」林沅霖認為,除非從晶片層級發生改變,否則成本還是會繼續上升。

AI產品的終局之戰:如何在$3兆市場中建立永續模式?

儘管如此,業界還是相當看好AI輔助軟體開發的市場潛力。業界預估,AI軟體開發對全球經濟的貢獻每年可能高達3兆美元,約等於法國的GDP。

在這個「AI戰國時代」,AI應用層新創的商業模式正加速進化,單純依賴「便宜」、「無限」和「極致體驗」的時代已經結束,AI應用新創必須找到可以立足的商議模式。

純粹的按Token計費雖然經濟學上最純粹,但對用戶而言,心智負擔太重——他們不想在寫程式時還得計算token。因此,行業正在趨向採用「按次數搭配權力用戶保障」的混合模式,當用戶超過配額後,按token成本透明收費。

另一方面,在開發者社群中,AI程式碼工具出現了兩大流派的競爭與遷徙:

  • 極致體驗派(如Cursor):專注於IDE整合、卓越的自動完成速度,適合處理日常、快速的寫程式任務。
  • 強大模型能力派(如Anthropic的Claude Code):依賴大型推理模型,擅長處理複雜、需要長上下文的任務,例如跨檔案重構和系統設計。

許多開發者最終的選擇是採用「組合拳」。這表明,AI應用層必須在「模型能力、開發者體驗、成本效益、安全合規」四個維度上建立不可替代的價值。

不過對於所有AI應用層公司來說,最關鍵的還是必須證明自身提供的價值遠超過僅僅是底層AI模型的API存取費用。在AI成本仍是營運支出重要組成部分的今天,那些能夠「在保持正常用戶定價簡單性的同時,圍繞重度用戶消費建立可持續經濟模型」的公司,將成為這場巨變中的贏家。

本文授權轉載自創業小聚

往下滑看下一篇文章
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作

現代人手機不離手,通勤時滑短影音、午休追串流影劇、下午開視訊會議,網路影音應用成為工作與生活的普遍情境。然而,一旦畫面卡頓、畫質不穩,或聲畫不同步,使用體驗立刻打折,甚至影響工作效率與專業判斷。

也因此,網路品質不再只是「快不快」的問題,更關乎能否在高使用量的日常情境下,維持穩定、連續的表現;對此,第三方評測也採用更貼近使用者情境的方式衡量網路體感。而 Opensignal 最新報告指出,台灣大哥大在影音體驗相關項目是業界唯一同時拿下「影音體驗」與「5G 影音體驗」雙項獎項的電信商,其中,關鍵的差異是什麼?

為何「影音體驗」是網路品質的關鍵指標?

愈來愈多消費者入手旗艦機,追求的不只是硬體規格,還有流暢的 AI 應用與多工協作。然而,無論是視訊即時翻譯或雲端會議,這些高階功能都有一個共同前提:網路必須穩定。一旦網路品質不佳導致畫質下降或音畫不同步,旗艦級的 AI 功能將形同虛設。

這也意味著,檢驗網路價值的標準已經改變。如今,不能只看單點測速的瞬間峰值,更重要的是高負載情境下的耐力表現。因此,比起單點測速,影音體驗會是更完整的測試標準,直接挑戰了網路在室內深處、移動途中或人潮聚集時的網路實力;而唯有在長時間串流下依然不卡頓、不降畫質,才稱得上是高品質的連線。

換言之,隱身在硬體背後的電信商,才是發揮旗艦機性能的關鍵;唯有透過最佳網路品質,才能讓手中的旗艦機既是規格領先、也是體驗領先。

唯一影音體驗雙料冠軍,Opensignal 權威認證的有感體驗

雖然相較於測速數據,影音體驗更貼近日常使用,但也更難量化。對此,國際權威認證 Opensignal 的「影音體驗分數」,依循 ITU 國際標準,透過真實用戶裝置在行動網路上進行影音串流的實測數據,觀察不同電信網路在實際使用情境下的表現。

簡單來說,評測聚焦三項核心指標:影片載入時間、播放期間的卡頓率,以及畫質(解析度)是否能穩定維持。使用者從開始播放到持續觀看的整體品質,分數以 0–100 呈現,分數愈高,代表在三項指標的表現愈佳。相較於單點測速,這類評測更能呈現長時間、高使用量下的網路品質。

人流情境不降速.jpg
圖/ 數位時代

而在今年最新公布的 Opensignal 評測中,台灣大哥大獲得「影音體驗」獎項唯一雙料冠軍。其中,「整體影音體驗」為全台獨得第一名,「5G 影音體驗」則與遠傳並列第一。

之所以能在影音體驗拔得頭籌,關鍵在於台灣大哥大目前是全台唯一整合 3.5GHz 頻段 60MHz 與 40MHz、形成 100MHz 總頻寬的電信業者,亦是現階段全台最大 5G 黃金頻寬配置。頻寬愈寬,代表單位時間內可傳輸的資料量愈大;在大量使用者同時進行影音串流、視訊互動的狀態下,更能維持穩定傳輸、減少壅塞發生機率。

台灣大獲權威認證,NRCA技術撐起穩定基礎

除了頻寬帶來的流量優勢,台灣大哥大也採用「NRCA 高低頻整合技術」,也就是透過高低頻協作,讓 3.5GHz 負責高速傳輸、700MHz 補強覆蓋與室內連線,改善室內深處與移動情境的訊號落差,提升連線連續性。

同時,為了讓住家、通勤動線、商圈與觀光熱點等高使用場域維持穩定表現,台灣大哥大已在全台超過213個住宅、觀光及商圈熱點完成 100MHz 布建,提升人流密集區的網路覆蓋率。

5G高速(小).jpg
圖/ dreamstime

值得注意的是,在今年的 Opensignal 評比中,台灣大哥大還拿下了「5G 語音體驗」與「網路可用率」兩項第 1 名,累計獲得 4 項獎項。這意味著不僅具備影音體驗優勢,在語音互動與連線率等關乎用戶日常應用的基礎指標,皆有亮眼成績。

尤其,隨著影音與即時互動成為新世代的工作常態,網路品質的重要性只會持續上升。無論是遠距協作所仰賴的視訊與畫面共享即時同步,內容創作對直播與即時上傳連續性的要求,或是 AI 視訊互動、即時翻譯與會議摘要等新應用,都高度依賴低延遲與穩定的資料傳輸。網路品質因此不再只是連線條件,更是支撐內容生產、協作效率與新應用落地的基礎能力,甚至直接牽動競爭力。

而台灣大哥大經 Opensignal 認證、於多項關鍵指標領先業界,不僅將成為 AI 時代的重要後盾,也讓使用者能更充分發揮高階手機的效能,把「快、穩、滑順」落實在每天的工作與生活中。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓