Anthropic、五角大樓與自主武器的未來

Anthropic、五角大樓與自主武器的未來

背景與爭議起源

五角大樓與Anthropic之間因人工智慧在自主武器系統中的應用產生嚴重衝突。根據2026年3月的報導,五角大樓曾要求Anthropic放棄其對人工智慧安全限制,否則將面臨處罰。

Anthropic的立場與原則

Anthropic明確提出兩項紅線:禁止將其技術用於完全自主的武器系統,以及禁止進行對美國公民的大規模監控。

公司負責人Dario Amodei表示,目前邊際人工智慧系統仍不夠可靠,無法支撐完全自主的武器系統,因此不會願意提供可能導致此類應用的產品。

技術與倫理考量

爭議的核心在於「完全自主武器」的定義與技術可行性。Anthropic指出,其使用「完全自主武器」一詞在技術上並不精確,並強調現階段的AI系統尚無法穩定運作於高風險軍事環境。

此外,該爭議也反映出人工智慧在軍事應用中所涉及的倫理與監管問題,包括決策責任、誤判風險與對人類控制的削弱。

相關發展與政策背景

  • 2025年7月,美國國防部宣佈向Anthropic、Google、OpenAI與xAI等公司發放最高達2億美元的合約,以加速人工智慧在國防領域的應用。
  • 多個媒體與政策機構指出,此爭議不僅是技術問題,更涉及對AI發展方向與社會價值的長期影響。

相關討論與分析可參考:Bloomberg AI與自主武器專訪Anthropic官方聲明The New Yorker專題報導

來源:https://www.bloomberg.com/news/articles/2026-03-28/anthropic-s-fight-with-us-military-over-future-of-autonomous-weapons

返回頂端