AI合約爭議 美戰爭部槓Anthropic
事件背景
美國戰爭部與AI公司Anthropic因合約使用限制產生爭議。雙方核心爭議點在於Anthropic堅持合約中包含兩項禁令:禁止將AI用於「自主武器系統」,以及禁止用於「大規模監控美國人民」。
主要爭議點
- Anthropic主張其AI模型Claude不得參與無人類決策的自主武器系統。
- 公司拒絕配合國防部要求,堅持不將AI用於大規模監控。
政府回應與後續發展
美國國防部將Anthropic列為「供應鏈風險」,並向其發出通牒,若不合作將被公開標記為國家安全威脅。
此舉引發一場法律戰,可能影響AI供應商與軍方合作的模式,並對國防產業產生重大衝擊。
