Sam Altman回應美國戰爭部選擇OpenAI而非Anthropic:或因運營控制權訴求存在分歧
合作背景與談判進展
OpenAI創始人Sam Altman在X平臺發起AMA(問答活動),回應近期與美國戰爭部達成合作。他披露,Anthropic與美國戰爭部曾一度“非常接近達成協議”,且在談判的大部分時間裡雙方均有強烈意願達成合作。
安全理念與合作路徑差異
在安全理念方面,OpenAI採取“分層安全(layered approach)”路徑,包括構建安全技術棧、部署前沿部署工程師(FDE)、讓安全研究人員參與項目,並通過雲端部署方式交付,直接與美國戰爭部合作。
相較之下,Anthropic更側重於在合同層面設定明確限制,而OpenAI則更傾向於依賴適用法律框架,並以技術性安全防護措施作為核心保障。
運營控制權分歧
雙方在運營控制權方面存在分歧,Anthropic或希望在合作中獲得更多運營層面的控制權,而這可能也是交易未能最終落地的重要原因之一。
後續發展與爭議
由於Anthropic試圖強迫美國戰爭部服從其服務條款,而非美國憲法,引發強烈爭議。美國政府隨即下令聯邦機構停止使用Anthropic技術,而OpenAI則被指趁機介入,拿下美國軍方大單。
OpenAI行政總裁Sam Altman亦承認協議達成過程倉促,並表示將修訂相關條款以應對潛在風險。
來源:https://www.panewslab.com/zh-hant/articles/019ca8a7-751e-76ef-9a2e-2a6d25b0dcca
