重點一:Anthropic 推出 Claude Code Review,部署多代理 AI 平行審查 Pull Request,系統完成後以單一總覽留言加上行內批注呈現,審查約需 20 分鐘。
重點二:定價採 token 計費,每次審查約 15 至 25 美元(約新台幣 476 至 794 元),依 PR 規模動態調整,Teams 與 Enterprise 版本率先開放研究預覽。
重點三:Anthropic 內部測試顯示,工程師每人程式碼產出提升 200%,獲實質審查留言的 PR 比例從 16% 大幅提升至 54%,工程師對 AI 發現問題的異議率不到 1%。
AI 程式碼工具大幅拉升開發速度,但也讓程式碼審查 (Code Review) 陷入新的困境。Anthropic 執行長 Dario Amodei 曾指出,過去一年 Claude Code 用戶的單人程式碼產出量成長約 200%,大量 Pull Request(PR,即合併請求)湧入,人工審查速度根本追不上。
這個瓶頸正是 Code Review 試圖解決的問題。
Anthropic 於 2026 年 3 月 9 日正式發布 Claude Code Review 研究預覽版,初期開放給 Teams 與 Enterprise 方案用戶。產品主管 Kaylea Wu 表示:「我們看到許多企業主管一再問同一個問題:Claude Code 送出了這麼多 PR,我們要怎麼有效率地審查?」
多代理並行,抓蟲不漏網
Code Review 的架構核心是「多代理並行運作」。當開發者開啟一個 PR,系統會同時派出多組 AI 代理(Agent)分頭搜查漏洞,接著由驗證代理交叉確認以過濾假陽性,再依嚴重程度排序,最終輸出單一高品質總覽留言,並在問題所在的程式碼行附上行內批注。
而 PR 規模越大,系統投入的代理數與分析深度也會動態增加;小型改動則用較輕量的方式處理。Anthropic 表示,一般 PR 的審查時間平均約 20 分鐘。
同月稍早推出的 Claude Code Security 則側重整體程式碼庫的安全漏洞深掃,與 Code Review 互補,前者著重邏輯錯誤,後者聚焦安全威脅。
Anthropic 自己也在幾乎每一個內部 PR 上使用這套工具。數據顯示,部署前只有 16% 的 PR 收到實質審查留言;部署後比例躍升至 54%。工程師對 AI 標記問題的異議率更低於 1%,顯示假陽性控制頗為有效。
每次 15 至 25 美元,Anthropic 賭的是什麼?
定價是最引發討論的環節。Code Review 按 token 用量計費,單次審查費用依 PR 大小約落在 15 至 25 美元(約新台幣 476 至 794 元)。對比 GitHub Copilot 已在訂閱方案內含程式碼審查功能,以及 CodeRabbit 等定價更低的新創競品,Anthropic 的定價明顯偏高。
Anthropic 的反駁是框架的轉換:把 Code Review 定位成「保險」而非「生產力工具」。
公司發言人對外表示,「一個上線的 Bug 造成的損失,遠超過每次 20 美元的審查費用。單一生產事故——回滾、緊急修復、待命工程師——消耗的工時可能超過一整個月的 Code Review 支出。」
若以 100 人的開發團隊、每人每個工作日開一個 PR 估算,每月約 2,000 次審查,費用約在 4 萬美元(約新台幣 127 萬元)。這是一筆可觀的預算。但目前 Anthropic 尚未公布與競品相比的外部漏洞偵測率數據,這也可能成為企業採購評估時的觀望理由。
Code Review 目前整合 GitHub,未來 Anthropic 也預告將考慮讓開發者在本機端(inner loop)直接執行,以因應快速增長的需求。
資料來源:TechCrunch、VentureBeat、The New Stack、The Register
本文初稿為AI編撰,整理.編輯/ 李先泰
