Anthropic 與五角大樓的生存談判:AI 使用規範的生死戰

Anthropic 與五角大樓的生存談判:AI 使用規範的生死戰

談判背景與核心衝突

Anthropic 公司近期與美國國防部(Pentagon)展開了一場持續數週的激烈談判,雙方圍繞 AI 模型的應用範圍與安全條款產生嚴重分歧。這場衝突透過社交媒體貼文、公開聲明以及五角大樓官員的匿名引述在媒體上廣泛傳播。

關鍵條款:「任何合法用途」

Anthropic 的未來取決於三個關鍵詞:「任何合法用途」(any lawful use)。該公司目前與國防部簽訂的價值 2 億美元合約中,已將「可接受使用政策」(acceptable use policy)納入其中。然而,五角大樓要求重新談判,試圖將 AI 模型(如 Claude)定位為服從命令的士兵,甚至要求開發無人殺手機器人。Anthropic 則反對其 AI 在未經監督的情況下殺人,認為這涉及存在性風險。

談判僵局與後果

由於雙方在 AI 安全條款上的對立,Anthropic 面臨被列為國家安全供應鏈的風險,這可能影響其價值 380 億美元的 AI 起點公司的未來。目前,談判雙方已回到談判桌前,但分歧依然顯著。此事件不僅是商業合約的爭議,更被視為測試美國信用與科技政策邊界的重要試金石。

返回頂端