海水退潮了?DeepSeek流量雪崩近30%:為何走「俗擱大碗」CP值路線,卻留不住用戶?
海水退潮了?DeepSeek流量雪崩近30%:為何走「俗擱大碗」CP值路線,卻留不住用戶?

重點一 :儘管DeepSeek模型一度廣受歡迎,但其自有平台因刻意犧牲使用者體驗(高延遲、小上下文視窗)以換取低價,並將寶貴算力保留於內部研發,導致其市佔率下滑。

重點二 :AI模型競爭已進入「代幣經濟學」(Tokenomics) 時代,衡量標準不僅價格,而是包含延遲、互動速度與上下文長度等多重因素,第三方雲端服務商因提供更佳的綜合效能而崛起。

重點三 :算力限制是全球性挑戰,西方AI巨頭Anthropic同樣面臨困境,面對龐大需求而不得不犧牲部分模型輸出速度,顯示在AI競賽中,足夠的運算資源是所有領導廠商的共同核心課題。

自中國大型語言模型DeepSeek R1以其媲美OpenAI的推理能力及低於業界九成的震撼性低價發布以來,已超過150天。當時市場普遍擔憂此舉將引發AI模型的商品化割喉戰。然而,數據顯示的卻是另一幅景象: 儘管DeepSeek的模型在第三方平台(如 OpenRouter)大受歡迎,其自營的應用程式與API服務流量卻不增反減,市佔率持續下滑。

研究機構《SemiAnalysis》指出, 核心原因在於DeepSeek為應對美國晶片出口管制下的算力限制,採取了犧牲使用者體驗的戰略,亦即其雖然價格低廉,卻伴隨著極高的延遲(Time-to-First-Token)與極小的上下文視窗(Context Window),迫使用戶等待數秒才能獲得回應。

《SemiAnalysis》分析指出,這種刻意的取捨,是為了將有限的高階運算資源集中用於模型研發,力求在AGI(通用人工智慧)的終極競賽中取得突破,而非著眼於當前的API服務營利。

DeepSeek App市占:從8%回落至4.5%

那麼,DeepSeek的App市占率究竟下滑多嚴重?據《SemiAnalysis》指出, DeepSeek可謂出道即巔峰 ,在今年一月份推出App後,市占率出現了近乎垂直的爆炸性增長,從接近0%迅速飆升至超過8%的峰值。

研究強調,因為中國市場的用戶數據追蹤不完整,且許多西方AI服務在中國被禁用,因此數據很可能低估了DeepSeek的真實影響力。 但整體而言,DeepSeek市占率在1月觸頂之後就一路下滑,截至5月底已回落至4.5%左右 ;值得注意的是,同期間整體市場的AI App使用者指數一路上升,顯見用戶外移的趨勢。

App User.jpg
「AI 應用使用者指數」與「DeepSeek 市場佔有率」比較的趨勢圖。

DeepSeek網頁訪問次數:衰退近30%

而在瀏覽器訪問這一端,DeepSeek網頁版的訪問次數同樣一路下降。根據SimilarWeb數據,從今年2月到5月這三個月期間,DeepSeek網站流量從6.14億次 (614 M) 下降至4.36億次 (436 M),衰退幅度高達29%。

但反觀ChatGPT,作為市場的領導者,其流量從 39.05 億次 (3,905 M) 增長到 54.92 億次 (5,492 M),仍然實現了40.6%的強勁增長。而Google旗下的Gemini成長幅度更驚人,流量從 2.84 億次 (284 M) 大幅增長至5.28億次 (528 M),增長率高達 85.8%。

至於比較晚加入戰局的Grok由於流量基期較低,同期間流量從 5100 萬次 (51 M) 爆炸性增長至 1.79 億次 (179 M),增長率達到了驚人的 247.1%,是所有服務中最高的;Claude則成長穩健,流量從 7300 萬次 (73 M) 增長到 1 億次 (100 M),實現了 36.5% 的成長。

5大AI模型瀏覽器訪問變化

模型 2/25數據 5/25數據 百分比變化
DeepSeek 614 M 436 M -29.00%
ChatGPT 3,905 M 5,492 M 40.60%
Claude 73 M 100 M 36.50%
Gemini 284 M 528 M 85.80%
Grok 51 M 179 M 247.10%

資料來源:SemiAnalysis、SimilarWeb

犧牲體驗換未來,DeepSeek的算力告急

DeepSeek的策略選擇清晰地體現在其服務的各項指標上。相較於其他提供商,用戶在使用DeepSeek官方服務時,必須忍受超過25秒的延遲與僅64K的上下文視窗,這嚴重限制了如程式碼分析等需要大量記憶的應用場景。

《SemiAnalysis》指出,與此形成鮮明對比的是,第三方託管的DeepSeek模型實例,總使用量自R1發布以來成長了近20倍,因為這些服務商利用更優化的硬體配置,提供了延遲更低、上下文視窗更大的選項。

R1比較.jpg
圖表分析了不同大型語言模型(LLM)提供商在延遲(Latency)和價格(Blended $/Mtok)之間的關係,並以氣泡大小表示上下文窗口(Context Window)的大小。可見DeepSeek便宜但延遲很高。
圖/ https://openrouter.ai/ accessed in May 2025.

DeepSeek透過高併發批次處理(Batching)使用者請求,將單一GPU的效能壓榨到極致,從而降低每百萬代幣的成本。此舉雖換來了全球性的模型知名度與開源社群採納,卻也將服務的重擔與商機轉嫁給了第三方雲端平台。

《SemiAnalysis》指出,這反映了在無法大規模取得如輝達高階晶片的困境下,中國AI企業只能「用(用戶的)時間換(預算的)空間」,確保核心研發不致落後。

代幣經濟3要素:除了價格外的「CP值」指標

DeepSeek現象揭示了當前AI市場的競爭核心已不再是單純的價格戰,而是「代幣經濟學」(Tokenomics) 的權衡。一個模型的價值不能僅由「$/Mtok」(每百萬代幣價格)來定義,而是取決於三大關鍵績效指標(KPI)的平衡:

  1. 延遲(Latency) :從發出請求到模型生成第一個代幣所需的時間。
  2. 互動性(Interactivity) :模型生成後續代幣的速度,通常以每秒代幣數(tokens per second)衡量。
  3. 上下文視窗(Context Window) :模型能「記住」的對話或資料長度。模型供應商可透過調整這些變數,來決定最終的代幣價格。

AI Token之戰,不只拚總量也拚「輸出純度」

算力受限並非DeepSeek獨有的困境,即便是資金雄厚的西方AI公司Anthropic也面臨著相似的挑戰。Anthropic的Claude 4 Sonnet在API上的輸出速度自推出以來已下降40%,來到每秒約45個代幣。這與DeepSeek的原因如出一轍: 為了用有限的算力應對海量請求,不得不提高批次處理率,從而犧牲了互動速度。

然而,Anthropic也展現了另一種優化方式,其模型在回答問題時更為「精煉」,產生的總代幣數遠少於競爭對手,也就是儘管速度較慢,但用戶獲得完整答案的總等待時間可能更短。

延伸閱讀:一則IG對話、一副拳王簽名拳套,為什麼讓AmazingTalker點頭首宗併購案
黃仁勳是DeepSeek暴紅推手?為何輝達寧可「便宜AI」崛起,也不願放棄中國市場?

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #AI #openai

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
蘋果能再次偉大?
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓