AI合約爭議 美戰爭部槓Anthropic
事件背景
2026年2月,美國戰爭部(Department of War)與人工智慧巨頭Anthropic之間的緊張關係全面升級。這場爭議的導火線,源自於美軍近期在委內瑞拉的軍事行動中,對AI技術的應用需求增加,進而引發與Anthropic之間的合約爭議。
核心爭議點
- Anthropic堅持在與戰爭部簽署的2億美元合約中加入兩項禁令:禁止將AI用於「大規模監控美國人民」,以及禁止參與「無人類決策的自主武器系統」。
- 美國國防部則要求撤除這些軍事用途限制條款,並強調AI需全面用於軍事行動。
雙方對立與後續發展
Anthropic的CEO Dario Amodei拒絕美國五角大廈的要求,堅持其AI兩大紅線,並拒絕配合無人類決策的武器系統。
作為回應,美國國防部將Anthropic列為「供應鏈風險」,並公開標記為國家安全威脅。Anthropic已提起訴訟,挑戰此決定,成為美國首例AI供應商與政府之間的法律對決。
此事件促使美國國防部轉向與其競爭對手OpenAI合作,並可能改變未來AI與國防產業的協作模式。
