對槓Gemini 3!OpenAI推出Codex‑Max編碼模型,可24小時馬拉松寫Code、一次處理數百萬tokens任務
對槓Gemini 3!OpenAI推出Codex‑Max編碼模型,可24小時馬拉松寫Code、一次處理數百萬tokens任務

重點一:OpenAI 推出 GPT‑5.1‑Codex‑Max,能以「壓縮(compaction)」機制跨越超大型情境窗,處理長達 24 小時、數百萬 tokens 的大型程式任務。

重點二:在 SWE‑bench 等基準上,Codex‑Max 以相同推理強度達到更佳表現,且「思考 tokens 減少約 30%」,並提供 Extra High(xhigh)長思考選項,提升成本與效率。

重點三:Codex‑Max 首度針對 Windows(視窗作業系統)強化訓練,並在安全沙盒中執行、預設關閉網路,降低長時推理的資安風險。

就在 Google Gemini 3 發布隔日,OpenAI 宣布推出最新代理型程式設計模型 GPT‑5.1‑Codex‑Max。其核心在於更新的推理底模與「compaction(壓縮保留)」機制,可使模型在接近上下文極限時自動整理並保留關鍵脈絡,重啟新視窗後持續工作,進而在單一任務中連貫處理「數百萬 tokens」。

官方指出,這使模型首次能原生跨越多個上下文視窗,支撐長時間、細緻的工程任務,例如專案級重構、深度除錯與多小時代理迴圈。內部觀察顯示,模型可連續工作超過 24 小時,持續迭代、修測並完成交付。

GPT‑5.1‑Codex‑Max 現已在 Codex 的 CLI、IDE 擴充、雲端與程式碼審查上線,並將成為各 Codex 介面預設模型;API 存取「即將推出」。

在效能與成本方面,OpenAI 表示 GPT‑5.1‑Codex‑Max 於 SWE‑bench Verified 等基準測試中,以「medium」推理強度相較前代 GPT‑5.1‑Codex(同強度)取得更佳表現,同時「思考 tokens 減少約 30%」,意味著推理更有效率,將轉化為開發者的實際成本節省。

GPT-5.1-Codex-Max
這張圖比較兩個模型在兩個實測基準的表現。於 SWE‑Lancer IC SWE,GPT‑5.1‑Codex‑Max 準確率 79.9%,相較 GPT‑5.1‑Codex(high)66.3%,提升幅度大、接近 80% 軸上限。
圖/ OpenAI

相較先前模型在面對龐大錯誤日誌或系統層級重構時易耗盡情境窗,Codex‑Max 透過壓縮機制維持跨階段的上下文一致性,使其可以執行複雜的系統級重構(如全面搜尋、變更與修正跨參照)與長時程式工作負載。

官方案例顯示:同一任務中,Max 使用 27,000 tokens(對比非 Max 為 37,000),輸出 707 行程式碼(對比非 Max 為 864),速度提升 27%

首度針對 Windows 進行培訓

除延續 macOS 上的良好體驗,OpenAI 指出 Codex‑Max 是其首個「為 Windows(視窗作業系統) 有效運作而受訓的模型」,並在 Codex CLI 的協作任務上優化。

考量 OpenAI 與 Microsoft(微軟) 的合作關係持續深化,Windows 訓練路線亦符合雙方生態整合的趨勢。

資安方面,OpenAI 自 GPT‑5 推出以來,已強化針對惡意活動的監測;Codex‑Max 的「長期、長視野(long‑horizon)推理」能力提升,有助於長時間執行任務時的資安韌性。

Codex‑Max 預設執行環境採用 安全沙盒(secure sandbox),亦即檔案寫入被限制在指定工作目錄,並預設 關閉網路。OpenAI 建議維持此受限模式,因為啟用網路或網頁搜尋可能帶來來自不可信內容的提示注入(prompt injection)風險。

延伸閱讀:哪一款AI最可靠?研究揭Claude家族最老實:為何對LLM來說,坦承無知比「已讀亂回」更難?

資料來源:OpenAIZDNET

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #openai #ChatGPT

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓