遭列供應鏈風險,Anthropic反擊成功取得禁制令
事件背景
美國國防部於2026年3月將AI公司Anthropic列為「供應鏈風險」,禁止軍方與承包商使用其Claude模型技術,此舉被視為對AI產業的直接封殺。
法律反擊
Anthropic隨即向美國聯邦法院提起訴訟,請求撤銷「供應鏈風險」認定,並要求法院在審理期間暫停執行相關禁令。
法院裁決
美國聯邦法院裁定,暫時阻止政府對Anthropic的封殺措施,要求在案件審理期間不得執行相關限制,此決定被視為對國安與產業自由的關鍵保障。
爭議核心
- Anthropic拒絕放寬Claude模型的軍事用途限制,導致與美國國防部產生嚴重分歧。
- 法院認為相關措施可能涉及違憲,因此裁決暫停執行,此案不僅關乎國安,也牽動AI產業競爭與憲法權利。
- 五角大廈內部備忘錄指出,針對國安關鍵任務,仍可保留豁免條款,顯示政策存在矛盾。
後續發展
Anthropic執行長Dario Amodei表示,此舉在法律上已無選擇,將持續透過法律途徑捍衛企業權利與營運自由。
