重點一:OpenAI推出 GPT‑5.2‑Codex,主打「長程代理式編碼」和更強的資安能力,現已在 ChatGPT 付費用戶的 Codex 介面上線。
重點二:在 SWE‑Bench Pro 與 Terminal‑Bench 2.0 取得領先成績,並把 Windows 原生環境、工具呼叫、長上下文處理都補強。
重點三:開啟「受信任存取」試點,邀請資安專業者以防禦用途測試更高能力的模型。
OpenAI 推出新一代代理式編碼模型 GPT‑5.2‑Codex,主打長時間、複雜任務的穩定協作,以及更強的資安能力。現在已在 Codex 各介面向 ChatGPT 付費用戶開放。
官方表示,該模型在 SWE‑Bench Pro(實作修補測試)與 Terminal‑Bench 2.0(真實終端代理測試)拿到業界領先成績,同時改善 Windows 原生環境下的可靠度,面對大型程式碼變更(重構、移轉)與長上下文推理更不容易「走鐘」。
另一方面,OpenAI 也啟動「受信任存取」試點,先讓符合條件的防禦型資安研究者接觸更高能力的模型,試著在開放與安全之間找到平衡。
GPT‑5.2‑Codex 更適合「長跑」了
GPT‑5.2‑Codex 建立在 GPT‑5.2 的長上下文理解和原生壓縮(context compaction)之上,再承接 GPT‑5.1‑Codex‑Max 的終端操作能力。這次的重點是把「長跑型」工作流做紮實: 工具呼叫更可靠、事實性更好、推理更省 token,讓它能在大型 repo 裡連續處理重構、框架移轉、功能開發等複雜任務,不容易斷線或遺失上下文。
官方也提到, 模型在 Windows 環境下的表現更穩了 ;加上視覺能力升級,能更準確看懂截圖、技術圖表、UI 設計稿,從設計雛型快速拉出可運行原型,再一路把專案推到產線。
用一句話總結:這是一個比較能「陪你長跑」的工程夥伴,就算計畫中途調整或第一次嘗試失敗,仍能持續迭代、不失焦。
Codex「抓蟲」能力升級
OpenAI 提到,從 GPT‑5‑Codex、GPT‑5.1‑Codex‑Max 到 GPT‑5.2‑Codex,內部的資安能力評估呈現三次台階式跳升。雖然以 Preparedness Framework(準備度框架)來看,GPT‑5.2‑Codex 還沒到「高」等級,但官方已在模型與產品層面加上更多防護與存取控管,並提供 System Card 說明風險與緩解。
值得一提的是近期的實務案例:Privy(Stripe 旗下)的資安工程師 Andrew MacPherson 使用 GPT‑5.1‑Codex‑Max 與 Codex CLI,原本在重現 React2Shell(前一週公布的 React 漏洞)過程中,透過本地測試環境、攻擊面推理與 fuzzing,意外發現影響 React Server Components 的新漏洞,後續已負責任揭露並修補。
這說明先進 AI 確實能加速防禦性研究,但也因為能力更強,部署上必須加倍審慎。
為資安防禦啟動「受信任存取」試點
資安團隊常需要模擬攻擊、分析惡意程式或壓力測試關鍵基礎設施,但在一般產品政策下會卡關。OpenAI 現在推「受信任存取」(Trusted Access)試點,初期採邀請制,鎖定有負責任揭露紀錄的資安專業者、以及有明確防禦型用途的組織。參與者可接觸更高能力、較寬鬆限制的模型,但使用範圍限定在正當防禦,並納入更嚴密的審核與控管。
整體部署策略仍然是「漸進式開放」:一邊擴大可用性,一邊疊加防護、持續與社群合作,假設未來模型可能很快跨過「高」能級,先把安全邊界設好。
資料來源:OpenAI
本文初稿為AI編撰,整理.編輯/ 李先泰
