Anthropic 否認在戰時可能惡意操控 AI 工具
事件背景
美國國防部指控 Anthropic 有可能在戰時惡意操控其 AI 工具,並對軍事系統構成威脅。該指控引發 Anthropic 公司的強烈反駁,認為此說法不實且不可能。
雙方立場
國防部聲稱,Anthropic 的 AI 系統極易受到操控,可能在戰時故意關閉或改變其行為,以達到「惡意幹擾」或「預先調整」的目的。
Anthropic 則強調,其 AI 工具(如 Claude)的設計原則包含強烈的安全限制,例如禁止進行大規模國內監控與完全自主的武器系統,並堅稱其技術無法被用於「惡意幹擾」或「戰時破壞」。
法律爭議
Anthropic 已對國防部提出訴訟,抗議其被標記為「供應鏈風險」,並質疑此舉違反相關法律。專家認為,此案將檢驗現有法律對軍事系統與 AI 開發商之間關係的適用範圍。
相關連結
- Where things stand with the Department of War – Anthropic
- Justice Department Says Anthropic Can’t Be Trusted With … – WIRED
- Anthropic has strong case against Pentagon blacklisting, legal experts say
- Anthropic boss rejects Pentagon demand to drop AI safeguards – BBC
- Anthropic Refuses to Remove AI Safeguards Despite Pentagon Pressure
來源:https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/
