AI vs. the Pentagon:殺人機器人、大規模監控與紅線
Anthropic 與美國國防部的爭議
Anthropic 與美國國防部之間爆發爭議,原因是國防部提出的新軍事合約要求 Anthropic 放寬其 AI 模型的限制,允許「任何合法用途」,包括對美國民眾的大規模監控與完全自主的殺人機器人。
Anthropic 的紅線立場
Anthropic 的首席執行官 Dario Amodei 堅決反對此要求,認為目前的 AI 模型尚不夠可靠,無法被用於指揮致命武器,因此拒絕讓步。
其他 AI 公司的立場與關注
- OpenAI 也設立了「紅線」,明確拒絕參與大規模國內監控。
- 社群討論指出,AI 公司應共同設定紅線,以防止軍事 AI 發展至無監督的殺人機器人。
國防部的推動與爭議
國防部持續推動自主 AI 在軍事行動與監控中的應用,這引發了人權組織與公眾的擔憂,認為這可能導致不可控的軍事科技發展。
美國國務卿與國防部官員表示,Anthropic 被視為供應鏈風險,並呼籲對軍事 AI 的使用設立明確限制。
