AI 的靈魂不外包 — Anthropic 告 Pentagon,押注的是整個產業的規則
二○二六年二月二十八日,美國對伊朗的軍事行動開始後的第一個二十四小時,Claude 識別了大約一千個目標。
這不是比喻。Anthropic 的語言模型被嵌入五角大廈的 Maven Smart System——美軍的核心 AI 目標識別平台——透過衛星影像、信號情報和即時數據流,幫助軍事分析師以過去不可能的速度定位和分類打擊目標。
五天後,二○二六年三月三日,五角大廈正式通知 Anthropic:你們被列為「供應鏈風險」。這是美國史上,第一次有一家美國公司被用本來針對華為、中興、海康威視的國安機制制裁。
制裁的理由不是間諜活動,不是外國政府滲透,也不是數據外洩——而是 Anthropic 拒絕把大規模監控美國公民和自主致命武器系統,從合約允許的用途清單中移除禁止。
案件速覽(截至 2026-03-22)
- 指定日期:二○二六年三月三日,DOD 正式通知 Anthropic「供應鏈風險」指定
- 法律依據:10 U.S.C. § 3252(國防採購供應鏈安全條款)
- 核心爭議:Anthropic 拒絕「所有合法用途」條款;DOD 稱其模型「靈魂」污染供應鏈
- 訴訟:二○二六年三月九日,Anthropic 在加州北區聯邦法院提起兩件訴訟
- 財務衝擊:直接 DOD 合約兩億美元取消;CFO 估計最大風險達數十億美元
- 聽證日期:二○二六年三月二十四日,初步禁令聽證(Judge Rita Lin 主審)
Maven Smart System 的繼承者問題
要理解這場衝突,得從九年前說起。
二○一七年,五角大廈成立「演算法戰爭跨功能小組」,開始研究把機器學習用於分析無人機監控影像。這個計畫的名字叫 Project Maven。Google 是第一個被選中的技術合作夥伴。
二○一八年,事情出了岔子。超過三千名 Google 員工連署反對,認為為自動化武器系統提供技術違反職業道德。Google 最終選擇不續約。Palantir 接手,成為 Maven 的系統整合商。
二○二五年七月,Anthropic 以兩億美元簽下合約,Claude 成為第一個獲准部署在美軍機密網路上的前沿 AI 語言模型。在當時,這被 Anthropic 內部視為一個有意義的決定:與其讓沒有道德框架的模型進入軍事應用,不如帶著明確限制進去。
他們沒預料到,這個前提在半年後會被整個翻轉。

一月的政策轉向
二○二六年一月,五角大廈發布「AI 加速戰略」。核心要求是一句話:所有部署在國防系統的 AI 模型,必須可用於「所有合法目的」(all lawful purposes)。
重新談判 Anthropic 合約時,這句話成了一堵牆。Anthropic 的法律團隊讀完這個條款,看到了兩個沒有護欄的缺口:一是對美國公民的大規模監控,二是自主致命武器——即在沒有人類監督的情況下,由 AI 自主選擇並攻擊目標。
Anthropic 的要求很具體:把禁止這兩種用途的條款寫進合約,作為不可更改的硬性限制,而不是留待日後「合法性」解釋。五角大廈的立場是:我們不接受任何合約限制條款,因為「合法」本身就是界限。
二○二六年二月二十四日,國防部長 Pete Hegseth 發出最後通牒:二月二十七日下午五點零一分前給答覆,否則後果自負。
Anthropic 拒絕了。
同一天,OpenAI 宣布與五角大廈簽署兩億美元合約。
靈魂不能外包
事後,五角大廈首席技術官 Emil Michael 在接受訪問時,解釋了他對 Anthropic 的核心顧慮。他說 Claude 有一個「靈魂」(soul)——這不是讚美,而是一份控訴狀:Anthropic 在訓練過程中把自己的「政策偏好」(policy preferences)寫進了模型,形成了一套叫做「Constitutional AI」的訓練架構,這個東西無法被合約條款覆寫,也無法被甲方要求移除。
Michael 把這個問題描述為「污染供應鏈」。
這個說法本身就是一次語義劫持。過去,「供應鏈風險」這個詞描述的是像華為這樣的案例——一家擁有外國政府後門的公司,可能在硬體裡植入間諜程式,讓北京在必要時截獲通訊或癱瘓系統。現在,五角大廈用同樣的詞語,描述一家拒絕讓自己的模型被用於大規模監控和自主武器的美國公司。
差別在於:華為的「風險」是它可能服從外國政府的命令。Anthropic 的「風險」是它不服從本國政府的命令。
五角大廈在三月十九日的法庭聲明中,進一步引用了 Anthropic 雇用中國國籍員工的事實,作為供應鏈風險的補充依據。Foundation for American Innovation 的研究員 Samuel Hammond 反駁說:「在業界,Anthropic 普遍被認為是對防範外國情報滲透最認真的公司之一。」
OpenAI 接受了什麼
要評估 OpenAI 的選擇,得仔細讀合約語言。
五角大廈與 OpenAI 達成的合約寫道:AI「不會在任何情況下獨立指揮自主武器,若法律、法規或部門政策要求人類控制」。
MIT 技術評論的分析師把這句話拆開來讀,找到了一個關鍵缺口:這句話只在「現行法律要求人類控制」的前提下才有效。在很多實際場景裡,現行法律並沒有這樣的明確要求——這意味著合約允許的範圍,比表面看起來寬得多。電子前哨基金會(EFF)的分析也得出類似結論,把這些措辭稱為「虛詞」(weasel words)。
OpenAI 內部也有人看出了這個問題。Caitlin Kalinowski——OpenAI 負責硬體和機器人業務的主管——在合約宣布後兩週辭職。她的聲明直接:「在沒有人類監督的情況下監控美國公民,以及在沒有人類授權的情況下使用致命自主性,這些是應該得到比我看到的更多審慎考量的界線。」

Dario Amodei 在洩漏的內部備忘錄裡,把 OpenAI 的合約稱為「安全劇場」(safety theater),說 OpenAI 接受這個條件的主因,是「他們在乎安撫員工,而我們真的在乎阻止濫用」。Altman 公開反擊,指責 Anthropic「拋棄了民主規範」,因為私人公司不應該因為不喜歡當前的執政者就拒絕配合政府。
兩個人都在說一件有道理的事,但在說不同層次的事。Altman 說的是政治正當性的問題:誰有資格判斷什麼用途是可以的?Amodei 說的是技術現實:就算政治上可以,技術上也已經做了約束。
法庭上的五個訴因
二○二六年三月九日,Anthropic 在加州北區聯邦法院提起訴訟,由 Rita Lin 法官審理。
| 訴因 | 法律依據 | 核心主張 |
|---|---|---|
| APA 程序違反 | 行政程序法 | Hegseth 未遵循國會授權程序,缺乏事實依據和法律授權 |
| 第一修正案報復(1) | 憲法增修條文第一條 | 政府因 Anthropic 公開聲明而懲罰它,違反受保護言論條款 |
| 第一修正案報復(2) | 憲法增修條文第一條 | Constitutional AI 訓練方法論是受保護的表達,不得被商業合約強制修改 |
| APA 正當程序 | 行政程序法 | 在沒有事先通知或有意義聽證的情況下被列入黑名單 |
| 第五修正案 | 憲法增修條文第五條 | 未經正當程序剝奪財產和商業利益 |
其中最具創意、也爭議最大的是第一修正案的訴因。政府的立場是:這是商業合約條款的分歧,是行為而非言論,不受言論自由保護。Anthropic 的立場是:Constitutional AI 的訓練架構本身就是一種表達,政府試圖用採購黑名單強迫它改變訓練方法,本質上是因言獲罪。
有一份三月二十日的新法庭文件讓整個局勢更複雜。Anthropic 提交的回應書中,附上了 Emil Michael 在三月四日——正式指定通知發出隔天——發給 Amodei 的電子郵件,表示雙方在自主武器和大規模監控議題上「非常接近」(very close)。
如果雙方真的「非常接近」,為什麼要先發出正式指定通知?
這封電子郵件直接拆解了政府「Anthropic 立場構成不可接受國安風險」的核心論述。
為什麼 Anthropic 負擔得起這場仗
一個數字能說明 Anthropic 為什麼在這個時間點選擇硬碰硬。
到二○二六年三月,Anthropic 的年化收入接近一百九十億美元。兩億美元的 DOD 合約佔總收入不到百分之二。CFO Krishna Rao 在法庭聲明中估計,最壞情況下損失可能達到「數十億美元」——但在一百九十億美元的規模上,這仍然是可以承受的數字,相對於讓一個不利的法律先例被固定下來的長期代價。
這是一個企業在做政治代數:短期的財務損失 vs. 長期的法律先例。如果 Anthropic 不打這場仗,整個產業等於確立了一個原則:AI 公司不能在政府合約中寫入道德限制。未來每一家想賣給政府的 AI 公司,都得在這個框架下運作。
行業的反應也說明了這個案子的代表性:
- 近一百五十名退休聯邦和州法院法官,遞交法庭摘要支持 Anthropic
- 逾三十名 OpenAI 和 Google DeepMind 工程師(包括 Google 首席科學家 Jeff Dean)以個人身分聯署支持
- Microsoft 單獨提交摘要,要求法院暫停指定
台灣的採購困境
這場法律戰的結果,對台灣不只是旁觀者的關係。
台灣目前推進的四百億美元國防補充預算中,AI 整合的指揮管制系統、無人機反制和防空系統佔據顯著比例。Tron Future 在二○二六年二月發布了 AI 導引反裝甲火箭;國防創新辦公室也在持續採購 AI 整合的無人機系統。這些採購的技術基礎,高度仰賴美國的 AI 供應商和國防承包商。
Anthropic 案創造了一個分類問題。如果 Trump 政府的立場成為長期先例,AI 供應商將被分成兩類:合規型(接受「所有合法用途」,可拿到美國政府和盟友軍方合約)和安全型(堅持道德限制,可能被排除在採購框架之外)。
對台灣這樣深度整合進美國科技供應鏈的盟友,這個分類直接影響採購邏輯:你買進來的 AI 系統,背後的供應商是否已經「承諾配合無限制使用」?這個承諾是保障還是風險?
歐洲政策中心在三月的報告中提出了一個更深的擔憂:如果防務科技公司從這個案子學到「負責任設計不是好生意」,它會侵蝕全球範圍內對 AI 軍事應用建立問責機制的努力——包括美國在《負責任軍事使用 AI 政治宣言》中的承諾,目前已有近六十個國家簽署。
三個值得持續追蹤的問題
如果法院認定 Constitutional AI 的訓練方法論是受保護的表達,等於為 AI 公司的道德設計設立了憲法護欄。若否,政府可以用採購條件強制要求任何合約 AI 移除限制。
Kalinowski 辭職和 EFF 的分析已經讓 OpenAI 的合約語言受到審視。若 Anthropic 勝訴,OpenAI 的「所有合法用途(若法律要求人類控制)」條款可能面臨重新談判壓力。
Google、Meta 和 Mistral 都有軍事部門的採購接觸。這個判決將直接決定它們在談判桌上的談判空間:是接受「all lawful purposes」,還是有合法的合約拒絕權。
三月二十四日的聽證,決定的不只是這個案子
Anthropic 請求法院在訴訟期間暫停供應鏈風險指定,維持現狀。這個請求能成功的關鍵,在於第一修正案的訴因能否被接受,以及 APA 程序瑕疵的論點是否足夠強。
更根本的問題是:當「供應鏈風險」這個工具被用來制裁國內公司,不是因為外國滲透,而是因為它不願移除道德設計——這個工具的性質就改變了。
MIT 技術評論的結論是:OpenAI 的合約讓五角大廈保留了解釋空間,Anthropic 的合約讓這個空間消失了。五角大廈選擇的,是保留解釋空間。
在那個空間裡,Claude 曾在二十四小時內識別了一千個目標。
Anthropic 現在要求法院回答的問題是:這個空間,屬於誰定義?
那個答案,會讓整個 AI 產業——和所有仰賴美國 AI 供應商的盟友——都必須重新校準自己的位置。