重點一:Anthropic 於 3 月 9 日對美國國防部提起兩件訴訟,指控部門將其列為「供應鏈風險」屬違法行為,起訴文件當天即正式提交。
重點二:Anthropic 指出這類標籤歷史上專用於外國敵對企業,類似應制前所未有,訴訟稱此舉對公司安全立場和商業版圖造成難以彌補的損害。
重點三:訴訟起因於 Anthropic 拒絕讓 Claude 用於自主武器與大規模內部監視,國防部則要求更廣泛的「任何合法目的」使用權,雙方缺乏共識導致談判破裂。
AI 公司 Anthropic 於 2026 年 3 月 9 日對美國國防部 (DOD) 及多個聯邦機構提起兩件訴訟,要求法院撤銷將其列為「供應鏈風險」的標籤。國防部於上週正式發出通知,要求所有承接國防合約的廠商與承包商均需證明將逐步停用 Claude。
根據《路透》報導,Anthropic 財務長 Krishna Rao 在起訴文件中指出,這一標籤可能使公司 2026 年營收減少數億至數十億美元(約新台幣數十億至將近千億元)。具體數字仍在訴訟進行中,官方尚未給出明確區間。
紅線在哪?自主武器與監視是第一原則
Anthropic 執行長 Dario Amodei 已多次公開表明,公司紅線有兩條:其一,Claude 不得用於無人類監督的完全自主武器;其二,Claude 不得用於對美國公民進行大規模內部監視。
國防部則指稱要求 Anthropic 將 Claude 當成「任何合法用途」均可動用的工具,拒絕接受私人公司將一套限制規定列入軍事指揮體系。
雙方談判於 2 月 24 日破裂,國防部長 Pete Hegseth 隨即在社群媒體公布封鎖步驟。就連總統川普 (Donald Trump) 也於 Truth Social 發文,指示所有聯邦機構立即停用 Anthropic 所有產品。
訴訟稱,此舉屬於針對 Anthropic 言論自由的報復行為。訴狀引用 Anthropic 公開表達對 AI 安全的立場、反對將前沿模型用於大規模監視或自主武器,屬於完全合法的公開表達,政府不得因此懲罰。
商業衝擊與行業陣營重組
Anthropic 在此次衝突中採取多管齊下的策略。一方面,公司釐清指出這項標籤在法律上的適用範圍極為狹窄,強調商業客戶不受影響;另一方面,在起訴同一天,Microsoft 宣布將 Claude 整合至 Microsoft 365 Copilot 平台,進一步擴大商業版圖。
就連 OpenAI 與 Google DeepMind 等競爭對手的 37 名研究者也自發提交法庭意見書,表明對該類標籤的疑慮。他們指出,承包商被禁止使用特定工具卻仍面臨供應鏈風險標籤,將逐漸削弱美國在 AI 領域的競爭力。
Anthropic 先前與國防部簽署了約 63.5 億新台幣(約 2 億美元)的合約,同時是第一家將 AI 模型部署至分級網路的前沿 AI 安全實驗室。此次訴訟的走向,將決定各大 AI 公司將以何種條件為軍方提供服務。
資料來源:Reuters、TechCrunch、CNN、CNBC、Axios
本文初稿為AI編撰,整理.編輯/ 李先泰
