AI vs. the Pentagon:殺人機器人、大規模監控與紅線

AI vs. the Pentagon:殺人機器人、大規模監控與紅線

Anthropic 與美國國防部的爭議

Anthropic 與美國國防部之間爆發爭議,原因是國防部提出的新軍事合約要求 Anthropic 放寬其 AI 模型的限制,允許「任何合法用途」,包括對美國民眾的大規模監控與完全自主的殺人機器人。

Anthropic 的紅線立場

Anthropic 的首席執行官 Dario Amodei 堅決反對此要求,認為目前的 AI 模型尚不夠可靠,無法被用於指揮致命武器,因此拒絕讓步。

其他 AI 公司的立場與關注

  • OpenAI 也設立了「紅線」,明確拒絕參與大規模國內監控。
  • 社群討論指出,AI 公司應共同設定紅線,以防止軍事 AI 發展至無監督的殺人機器人。

國防部的推動與爭議

國防部持續推動自主 AI 在軍事行動與監控中的應用,這引發了人權組織與公眾的擔憂,認為這可能導致不可控的軍事科技發展。

美國國務卿與國防部官員表示,Anthropic 被視為供應鏈風險,並呼籲對軍事 AI 的使用設立明確限制。

來源:https://www.theverge.com/ai-artificial-intelligence/886082/ai-vs-the-pentagon-killer-robots-mass-surveillance-and-red-lines

返回頂端