重點一:OpenAI 推出 GPT‑5.1‑Codex‑Max,能以「壓縮(compaction)」機制跨越超大型情境窗,處理長達 24 小時、數百萬 tokens 的大型程式任務。
重點二:在 SWE‑bench 等基準上,Codex‑Max 以相同推理強度達到更佳表現,且「思考 tokens 減少約 30%」,並提供 Extra High(xhigh)長思考選項,提升成本與效率。
重點三:Codex‑Max 首度針對 Windows(視窗作業系統)強化訓練,並在安全沙盒中執行、預設關閉網路,降低長時推理的資安風險。
就在 Google Gemini 3 發布隔日,OpenAI 宣布推出最新代理型程式設計模型 GPT‑5.1‑Codex‑Max。其核心在於更新的推理底模與「compaction(壓縮保留)」機制,可使模型在接近上下文極限時自動整理並保留關鍵脈絡,重啟新視窗後持續工作,進而在單一任務中連貫處理「數百萬 tokens」。
官方指出,這使模型首次能原生跨越多個上下文視窗,支撐長時間、細緻的工程任務,例如專案級重構、深度除錯與多小時代理迴圈。內部觀察顯示,模型可連續工作超過 24 小時,持續迭代、修測並完成交付。
GPT‑5.1‑Codex‑Max 現已在 Codex 的 CLI、IDE 擴充、雲端與程式碼審查上線,並將成為各 Codex 介面預設模型;API 存取「即將推出」。
在效能與成本方面,OpenAI 表示 GPT‑5.1‑Codex‑Max 於 SWE‑bench Verified 等基準測試中,以「medium」推理強度相較前代 GPT‑5.1‑Codex(同強度)取得更佳表現,同時「思考 tokens 減少約 30%」,意味著推理更有效率,將轉化為開發者的實際成本節省。
相較先前模型在面對龐大錯誤日誌或系統層級重構時易耗盡情境窗,Codex‑Max 透過壓縮機制維持跨階段的上下文一致性,使其可以執行複雜的系統級重構(如全面搜尋、變更與修正跨參照)與長時程式工作負載。
官方案例顯示:同一任務中,Max 使用 27,000 tokens(對比非 Max 為 37,000),輸出 707 行程式碼(對比非 Max 為 864),速度提升 27%。
首度針對 Windows 進行培訓
除延續 macOS 上的良好體驗,OpenAI 指出 Codex‑Max 是其首個「為 Windows(視窗作業系統) 有效運作而受訓的模型」,並在 Codex CLI 的協作任務上優化。
考量 OpenAI 與 Microsoft(微軟) 的合作關係持續深化,Windows 訓練路線亦符合雙方生態整合的趨勢。
資安方面,OpenAI 自 GPT‑5 推出以來,已強化針對惡意活動的監測;Codex‑Max 的「長期、長視野(long‑horizon)推理」能力提升,有助於長時間執行任務時的資安韌性。
Codex‑Max 預設執行環境採用 安全沙盒(secure sandbox),亦即檔案寫入被限制在指定工作目錄,並預設 關閉網路。OpenAI 建議維持此受限模式,因為啟用網路或網頁搜尋可能帶來來自不可信內容的提示注入(prompt injection)風險。
本文初稿為AI編撰,整理.編輯/ 李先泰
