Anthropic 否認在戰時可能惡意操控 AI 工具

Anthropic 否認在戰時可能惡意操控 AI 工具

事件背景

美國國防部指控 Anthropic 有可能在戰時惡意操控其 AI 工具,並對軍事系統構成威脅。該指控引發 Anthropic 公司的強烈反駁,認為此說法不實且不可能。

雙方立場

國防部聲稱,Anthropic 的 AI 系統極易受到操控,可能在戰時故意關閉或改變其行為,以達到「惡意幹擾」或「預先調整」的目的。

Anthropic 則強調,其 AI 工具(如 Claude)的設計原則包含強烈的安全限制,例如禁止進行大規模國內監控與完全自主的武器系統,並堅稱其技術無法被用於「惡意幹擾」或「戰時破壞」。

法律爭議

Anthropic 已對國防部提出訴訟,抗議其被標記為「供應鏈風險」,並質疑此舉違反相關法律。專家認為,此案將檢驗現有法律對軍事系統與 AI 開發商之間關係的適用範圍。

相關連結

來源:https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/

返回頂端