Anthropic、五角大樓與自主武器的未來
背景與爭議起源
五角大樓與Anthropic之間因人工智慧在自主武器系統中的應用產生嚴重衝突。根據2026年3月的報導,五角大樓曾要求Anthropic放棄其對人工智慧安全限制,否則將面臨處罰。
Anthropic的立場與原則
Anthropic明確提出兩項紅線:禁止將其技術用於完全自主的武器系統,以及禁止進行對美國公民的大規模監控。
公司負責人Dario Amodei表示,目前邊際人工智慧系統仍不夠可靠,無法支撐完全自主的武器系統,因此不會願意提供可能導致此類應用的產品。
技術與倫理考量
爭議的核心在於「完全自主武器」的定義與技術可行性。Anthropic指出,其使用「完全自主武器」一詞在技術上並不精確,並強調現階段的AI系統尚無法穩定運作於高風險軍事環境。
此外,該爭議也反映出人工智慧在軍事應用中所涉及的倫理與監管問題,包括決策責任、誤判風險與對人類控制的削弱。
相關發展與政策背景
- 2025年7月,美國國防部宣佈向Anthropic、Google、OpenAI與xAI等公司發放最高達2億美元的合約,以加速人工智慧在國防領域的應用。
- 多個媒體與政策機構指出,此爭議不僅是技術問題,更涉及對AI發展方向與社會價值的長期影響。
相關討論與分析可參考:Bloomberg AI與自主武器專訪、Anthropic官方聲明、The New Yorker專題報導。
