深度求索發布DeepSeek-OCR:解密「光學壓縮」的文字速讀機制,為何AI學會遺忘反而省算力?
深度求索發布DeepSeek-OCR:解密「光學壓縮」的文字速讀機制,為何AI學會遺忘反而省算力?
2025.10.21 |

重點一:DeepSeek OCR 以「光學壓縮」技術處理寫滿文字的圖片,最高壓縮10倍且保留約97%資訊,讓AI可處理更長文件。

重點二:DeepSeek OCR 把文件當成圖片處理,用兩個擅長不同工作的模型分工合作,再用一個「16倍壓縮器」把需要計算的資料量大幅減少。

重點三:DeepSeek OCR 每天可以在單一 Nvidia A100 GPU 上處理超過 20 萬頁資料。如果使用 20 台伺服器,每台伺服器運行 8 塊 A100 處理器,吞吐量將躍升至每天 3,300 萬頁。

中國AI公司Deepseek(深度求索)於10月21日推出DeepSeek-OCR(光學文字辨識)系統,主打將以「影像」呈現的文字文件做高效率壓縮後再交由語言模型處理。其技術上核心訴求是:處理「影像中的文字」比直接處理「數位文字」更省算力。

而在應用上,這套系統的核心賣點也很簡單: 用更少的「視覺符號」(內部的影像單位)就能把文件讀懂,並輸出成可編輯的文字或結構化內容,包含表格、公式與圖表。

OCR讀起字來多有效率?DeepSeek技術報告指出,在維持約97%資訊的前提下,文字脈絡可被壓縮至最多10倍,從而延長LLM可承載的上下文長度,減少記憶體與推論成本。

系統也可將「對話歷史影像化並壓縮」,將較舊的聊天內容以低解析度保存,類似人類「漸漸遺忘」的機制:資料越久、越遠、越低解析,就越模糊。

DeepSeek-OCR的記憶機制
圖片以時間、距離和解析度為三個維度,說明了記憶、視覺和文字的清晰度變化。
圖/ DeepSeek-OCR的記憶機制

記憶刻度 :時間從「剛發生」到「1年」,清晰度由「Crystal Clear」逐步變成「Almost Gone」,描述人類記憶隨時間自然衰退。
視覺刻度:距離從 10 cm 到 20 m,越遠越不清楚,對應「看得近清楚、遠則模糊」的直覺感受。
文字刻度(解析度):從「Gundam」到「Tiny」等級,解析度越低、需要的「視覺符號」越少,文字呈現也越模糊,象徵以圖片方式壓縮舊文本。

這樣的優勢主要瞄準長文件處理、跨頁表格與圖形理解,以及跨語言(約100種)文件抽取,並在維持原始版面或輸出純文字的彈性間取得平衡。

白話來說,處理更少的符號,意味著更快的處理、更低的成本。對需要大量掃描、歸檔和資料萃取的工作類型,是最直接的效率紅利。

OCR如拼裝車!3步驟把資料「切塊再瘦身」

技術上,OCR如何辦到?DeepSeek‑OCR的做法是:把一頁文件當成「圖片」丟給AI,先切塊、再瘦身,最後才請懂圖又懂字的模型來讀。

第一步,前處理引擎DeepEncoder把版面「劃重點」:段落在哪、表格在哪、圖形在哪,別讓後面的模型浪費力氣在邊角裝飾(這裡用的是臉書母公司Meta的SAM,專門做影像分割)。

第二步是「資訊減肥」。例如原本一張1,024×1,024的頁面,會變成4,096個「視覺單位」(token),先經過壓縮器直接砍到256個,類似把會議逐字稿濃縮成重點條列,將算力和記憶體省下來。

第三步則是「理解」。其利用OpenAI的CLIP,負責把「看到的區塊」對上「語意」,也就是判斷這段到底在說什麼、這張圖在表達什麼。而因為前面已經切塊並瘦身,所以CLIP不用面對整頁的雜訊。

DeepSeek-OCR技術原理
Deepseek OCR先把文件當成圖片處理,用兩個擅長不同工作的模型分工合作,再用一個「16倍壓縮器」把需要計算的資料量大幅減少。
圖/ DeepSeek

結果,同樣的一頁文件,DeepSeek‑OCR通常只需要64到400個視覺token就能讀懂:一般簡報大約64個、書籍或報告約100個。而若遇到版面複雜的報紙,再打開所謂的「Gundam模式」把配額拉到最多800。對比傳統OCR動輒上千到上萬token,這套路線是「少算力、更多內容」。

 DeepSeek‑OCR 的輸入模式有三種
DeepSeek‑OCR 的輸入模式分成三類,對應不同「視覺符號」數量,以測試在各種壓縮比例下的表現。
圖/ DeepSeek

進一步來說,DeepSeek‑OCR的輸入模式分成三類,以對應不同「視覺符號」數量,以測試在各種壓縮比例下的表現。

• Tiny|Small:固定尺寸(約 512、640),輸出 64 或 100 個視覺符號。適合字數不多、版面簡單的頁面,用少量符號就能還原內容。
• Base|Large:較大尺寸(約 1024、1280),輸出 256 或 400 符號。以「補邊」保留原始長寬比;有效符號會因黑邊扣除而少於名義值。
• Gundam|Gundam‑Master:動態模式,把頁面切成 n 個局部視野,再加一張全局視野。

一日處理3,300萬頁!OCR資料集與權重全面開放

在實務部署方面,DeepSeek-OCR宣稱以單顆Nvidia A100每日可處理約200,000頁;若以20台伺服器、每台8顆A100組成叢集,日處理量可達3,300萬頁。此吞吐量不僅可支援企業級文件工作流,也有助於為LLM建構海量文字語料。

研究團隊訓練時使用約3,000萬頁PDF(含近百種語言,其中中文與英文約2,500萬頁),並加入1,000萬張合成圖表500萬份化學式100萬份幾何圖形以強化多模態文件理解。

更重要的是,官方開放程式碼模型權重,讓生態系可驗證與擴充此技術;在多語、保版面與純文字輸出之間提供彈性,適合長文件抽取、AI訓練語料建置,以及聊天機器人脈絡的「成本感知式」保存。

整體而言,DeepSeek-OCR以「影像壓縮+少量token」策略,將OCR從單純文字擷取,推進到可支援LLM長脈絡與結構化資料抽取的系統級能力。

英國資深網頁開發者Simon Willison實測指出,DeepSeek‑OCR 可在 NVIDIA Spark(ARM64 + CUDA)的環境中順利跑通,整體印象是:只要花時間選擇合適的「運行方式/提示」,DeepSeek‑OCR本身的模型表現「非常好」,足以在新硬體條件下完成高品質 OCR。

如何使用 DeepSeek OCR ?

一般讀者可用 Hugging Face 下載模型,安裝必要套件後,把圖片丟進範例程式即可做 OCR。其建議簡易流程如下:

  • 事前準備:有一台可用的電腦。若沒有 NVIDIA 顯示卡,也能跑,但會較慢;Hugging Face 頁面示範是用 NVIDIA GPU、CUDA 11.8。
  • 安裝工具:安裝 Python(建議 3.12)與套件管理工具(pip 即可)。
  • 安裝必要套件:torch 2.6.0、transformers 4.46.3、tokenizers 0.20.3、einops、addict、easydict;加速可選擇安裝 flash-attn 2.7.3
  • 取得模型:從 Hugging Face 載入模型名稱 deepseek-ai/DeepSeek-OCR
  • 放入圖片:把要辨識文字的圖片檔(如掃描的合約、收據、海報)指定到程式,執行後就會輸出文字或 Markdown。

延伸閱讀:Canva回來了!AWS雲端服務全面修復完成,快打開看Perplexity、Coinbase⋯⋯能不能用?

資料來源:DeepSeekDecoderSimon Willison’s Weblog

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #AI工具 #DeepSeek
往下滑看下一篇文章
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作

現代人手機不離手,通勤時滑短影音、午休追串流影劇、下午開視訊會議,網路影音應用成為工作與生活的普遍情境。然而,一旦畫面卡頓、畫質不穩,或聲畫不同步,使用體驗立刻打折,甚至影響工作效率與專業判斷。

也因此,網路品質不再只是「快不快」的問題,更關乎能否在高使用量的日常情境下,維持穩定、連續的表現;對此,第三方評測也採用更貼近使用者情境的方式衡量網路體感。而 Opensignal 最新報告指出,台灣大哥大在影音體驗相關項目是業界唯一同時拿下「影音體驗」與「5G 影音體驗」雙項獎項的電信商,其中,關鍵的差異是什麼?

為何「影音體驗」是網路品質的關鍵指標?

愈來愈多消費者入手旗艦機,追求的不只是硬體規格,還有流暢的 AI 應用與多工協作。然而,無論是視訊即時翻譯或雲端會議,這些高階功能都有一個共同前提:網路必須穩定。一旦網路品質不佳導致畫質下降或音畫不同步,旗艦級的 AI 功能將形同虛設。

這也意味著,檢驗網路價值的標準已經改變。如今,不能只看單點測速的瞬間峰值,更重要的是高負載情境下的耐力表現。因此,比起單點測速,影音體驗會是更完整的測試標準,直接挑戰了網路在室內深處、移動途中或人潮聚集時的網路實力;而唯有在長時間串流下依然不卡頓、不降畫質,才稱得上是高品質的連線。

換言之,隱身在硬體背後的電信商,才是發揮旗艦機性能的關鍵;唯有透過最佳網路品質,才能讓手中的旗艦機既是規格領先、也是體驗領先。

唯一影音體驗雙料冠軍,Opensignal 權威認證的有感體驗

雖然相較於測速數據,影音體驗更貼近日常使用,但也更難量化。對此,國際權威認證 Opensignal 的「影音體驗分數」,依循 ITU 國際標準,透過真實用戶裝置在行動網路上進行影音串流的實測數據,觀察不同電信網路在實際使用情境下的表現。

簡單來說,評測聚焦三項核心指標:影片載入時間、播放期間的卡頓率,以及畫質(解析度)是否能穩定維持。使用者從開始播放到持續觀看的整體品質,分數以 0–100 呈現,分數愈高,代表在三項指標的表現愈佳。相較於單點測速,這類評測更能呈現長時間、高使用量下的網路品質。

人流情境不降速.jpg
圖/ 數位時代

而在今年最新公布的 Opensignal 評測中,台灣大哥大獲得「影音體驗」獎項唯一雙料冠軍。其中,「整體影音體驗」為全台獨得第一名,「5G 影音體驗」則與遠傳並列第一。

之所以能在影音體驗拔得頭籌,關鍵在於台灣大哥大目前是全台唯一整合 3.5GHz 頻段 60MHz 與 40MHz、形成 100MHz 總頻寬的電信業者,亦是現階段全台最大 5G 黃金頻寬配置。頻寬愈寬,代表單位時間內可傳輸的資料量愈大;在大量使用者同時進行影音串流、視訊互動的狀態下,更能維持穩定傳輸、減少壅塞發生機率。

台灣大獲權威認證,NRCA技術撐起穩定基礎

除了頻寬帶來的流量優勢,台灣大哥大也採用「NRCA 高低頻整合技術」,也就是透過高低頻協作,讓 3.5GHz 負責高速傳輸、700MHz 補強覆蓋與室內連線,改善室內深處與移動情境的訊號落差,提升連線連續性。

同時,為了讓住家、通勤動線、商圈與觀光熱點等高使用場域維持穩定表現,台灣大哥大已在全台超過213個住宅、觀光及商圈熱點完成 100MHz 布建,提升人流密集區的網路覆蓋率。

5G高速(小).jpg
圖/ dreamstime

值得注意的是,在今年的 Opensignal 評比中,台灣大哥大還拿下了「5G 語音體驗」與「網路可用率」兩項第 1 名,累計獲得 4 項獎項。這意味著不僅具備影音體驗優勢,在語音互動與連線率等關乎用戶日常應用的基礎指標,皆有亮眼成績。

尤其,隨著影音與即時互動成為新世代的工作常態,網路品質的重要性只會持續上升。無論是遠距協作所仰賴的視訊與畫面共享即時同步,內容創作對直播與即時上傳連續性的要求,或是 AI 視訊互動、即時翻譯與會議摘要等新應用,都高度依賴低延遲與穩定的資料傳輸。網路品質因此不再只是連線條件,更是支撐內容生產、協作效率與新應用落地的基礎能力,甚至直接牽動競爭力。

而台灣大哥大經 Opensignal 認證、於多項關鍵指標領先業界,不僅將成為 AI 時代的重要後盾,也讓使用者能更充分發揮高階手機的效能,把「快、穩、滑順」落實在每天的工作與生活中。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
進擊的機器人
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓