被美國國防部列為供應鏈風險,Anthropic提告
事件背景
美國國防部突然將AI新創公司Anthropic列為「供應鏈風險」,禁止其Claude模型在軍事系統中使用,引發公司強烈反彈。Anthropic於2026年3月9日對美國政府提起兩項訴訟,主張國防部行為違反憲法與行政程序。
訴訟內容
- 向加州北區聯邦地方法院提起訴訟,主張政府違反憲法與行政程序。
- 向華盛頓DC巡迴上訴法院提出司法審查,直接挑戰國防部供應鏈風險指定的合法性。
外部支持
超過30名來自OpenAI與Google的AI研究人員簽署了法庭之友意見書(Amicus Curiae Brief),聲援Anthropic,強化其法律地位。
爭議核心
Anthropic認為國防部對其「供應鏈風險」的認定缺乏法律依據,並質疑國家安全採購邏輯與AI系統設計原則之間的根本衝突。
延伸影響
此事件不僅是商業爭議,更凸顯了AI技術在軍事應用中的倫理與法律邊界問題,引發科技與國防圈廣泛關注。
