Sam Altman的二十四小時:五角大樓說了兩次「不」,但只對一個人是認真的

Sam Altman的二十四小時:五角大樓說了兩次「不」,但只對一個人是認真的

兩份相似的條款,兩個不一樣的結果

先把兩份合約的核心內容並排放在一起。

Anthropic 的要求:Claude 不得被用於大規模監控美國公民,不得被用於沒有人類介入的自主武器系統。

Altman 在推文裡宣佈協議時,援引了兩條相同的原則:「我們長期以來相信,AI 不應被用於大規模監控或自主致命武器,人類在高風險的自動化決策中應當始終在場。」他還寫道:「五角大廈同意這些原則,將它們反映在法律和政策中,我們把這些原則寫進了合約。」

文字幾乎完全一樣。

一家被封禁,被列為「供應鏈風險」,被特朗普在 Truth Social 上親自罵成「激進左派覺醒公司」。另一家拿到了合約,進入了五角大廈的機密網絡,Sam Altman 在推文裡用了「reached an agreement」這個詞——平靜,商業,像是一筆普通的 B2B 交易完成了交割。

五角大廈不在意寫什麼,而是誰說了算

理解這件事,需要先理解 Anthropic 的 Dario Amodei 在那封公開信裡到底說了什麼。

他寫道:「Anthropic 理解,軍事決策由五角大廈而非私人企業來做。我們從未針對特定軍事行動提出異議,也未曾試圖以臨時方式限制我們技術的使用。」

然後他話峰一轉:「但在極少數情況下,我們相信 AI 可能會破壞而非捍衛民主價值觀。威脅不會改變我們的立場:我們問心無愧,無法接受他們的要求。」

這句話翻譯成合約語言是什麼意思?Anthropic 要求把原則寫死在合約條款裡,形成硬性約束。如果對方違反,它有權拒絕繼續服務。

五角大廈聽到的是什麼?一傢俬人公司,告訴政府的軍隊:某些情況下,你的命令我可以不執行,邊界由我劃定。

對任何一支軍隊來說都是不可接受的。不是因為他們真的想搞大規模監控,而是因為「判斷權歸誰」這件事本身,是軍事指揮體系裡最敏感的神經。軍方承包商通常無權告訴五角大廈他們產品可以怎麼用、不能怎麼用,「否則每份合約都要談具體使用場景,這不現實」。

OpenAI 給了完全不同的答案。

Altman 在備忘錄裡告訴員工,OpenAI 將向五角大廈提出自建「safety stack」,一套由技術控制、政策框架和人工審核構成的多層防護系統,嵌在 AI 模型和實際使用之間。OpenAI 同時表示,可以向機密網絡內部派駐持有安全許可證的研究人員,持續追蹤 AI 行為;模型只部署在雲端,不進入無人機這類邊緣系統。

翻譯過來是:你來看,你來監督,你看見所有事情發生。如果出了問題,我們共同承擔,不是你來找我要解釋。

「規則寫死,我來執行」和「我來嵌入,你來監督」,這是兩種完全不同的權力關係,而五角大廈只接受後者。

OpenAI 最擅長的,恰好是五角大廈最想要的

這裡有一個讓人有些不舒服的反諷需要說清楚。

OpenAI 向五角大廈承諾的「技術透明」和「持續監控」,在它自己的用戶身上,已經實踐了一遍。

2025 年 8 月,OpenAI 在一篇關於用戶心理危機的官方博文中,夾帶披露了一套新的監控機制:當系統檢測到用戶「計劃傷害他人」時,對話會被轉入專用管道,由一支經過訓練的人工審核團隊處理,這些審核員被授權將情況上報給執法機關。這是 OpenAI 主動發布的,但埋在一篇關注心理健康的長文段落中,反應平靜。

2026 年 2 月,也就是這次合約簽署前不久,OpenAI 上線廣告系統並更新隱私政策,明確了一件事:免費和基礎付費用戶在使用 ChatGPT 時,系統會進行「會話內上下文分析」,根據對話話題向用戶展示相關廣告。比如你在討論食譜,可能會看到送餐服務的廣告。OpenAI 強調對話內容本身不會傳給廣告主,但分析行為是實時發生的。廣告於 2 月 9 日開始測試。

2025 年 11 月,OpenAI 的第三方分析服務商 Mixpanel 遭遇入侵,洩露了部分 API 使用者的姓名、電子郵件、大致地理位置、操作系統和瀏覽器資訊。OpenAI 隨後終止了與 Mixpanel 的合作,目前有訴訟立案。事件主要影響 API 開發者用戶,普通 ChatGPT 用戶受影響的是通過平臺提交過幫助中心工單的那部分人。

這就是那家向五角大廈承諾「技術透明、持續監控、讓你看見所有事情發生」的公司。

它最擅長的事,恰好是讓別人看進來,因為它已經習慣了這樣對待自己的用戶。

Anthropic 相信規則能約束使用方,OpenAI 相信把自己的人嵌進去比任何條款都管用。前者是理想主義的合規邏輯,後者是現實主義的影響力邏輯。五角大廈選了後者,因為後者對它來說更熟悉,也更可控。

中間幾個小時發生了什麼?

時間回到北京時間 2 月 28 日凌晨,美東時間 2 月 27 日下午 5:01。

Anthropic 的最後通牒時間到了。Dario 沒有妥協。Trump 在 Truth Social 上宣佈封禁,Hegseth 在 X 上發文將 Anthropic 列為「供應鏈風險」,Anthropic 宣佈將透過法律途徑應對。

Hegseth 的聲明裡有一句話值得注意:「Anthropic 的立場與美國原則根本不相容。」然後,在同一份聲明裡,他表示 Anthropic 可以繼續向五角大廈提供服務「不超過六個月,以便平穩過渡」。也就是說,他們剛把一家公司定性為國家安全風險,卻還在繼續用這家公司的產品。這個邏輯悖論,沒有人正面解釋。

幾小時後,Altman 發了那條推文。

回看他在當天早些時候在全體會上的表述:他說希望 OpenAI 能「幫助局勢降溫」,並找到一個可以「為整個行業樹立框架」的解決方案。這不是一個被動等待的人的語氣。

這不是硅谷第一次見到這種操作。

2023 年,OpenAI 的非營利董事會以「不夠坦誠」為由解僱了 Altman,理由是他推進速度過快,內部溝通存在問題。五天後,Altman 帶著員工的集體支持信回來了,董事會解散。之後,他主導了公司從非營利架構向營利實體的重組,原本對公司有約束權的非營利使命,被包進了一個新的法律框架。

這一次,它被叫做「找到了共同框架」。

Dario 輸掉了什麼?

Jerry McGinn,美國戰略與國際研究中心工業基礎研究中心主任,對這件事給出了一個冷靜的評價:「對 Anthropic 是絕佳的公關,而他們根本不需要那 2 億美元。」

這個判斷在財務上是準確的。Anthropic 2025 年全年營收 140 億美元,估值 3800 億美元,最大股東亞馬遜不會因為一紙政府封禁令就重新考慮投資邏輯。法律途徑可能帶來轉機。IPO 估值大概率不受實質損害,「拒絕政府壓力,堅守安全原則」這個敘事,恐怕沒有任何公關預算能買到同等效果。

但有一件事,Dario 輸掉了。

AI 在軍事領域的實際使用標準,將由 OpenAI 在五角大廈內部制定,而不是 Anthropic。那個嵌進機密網絡的 safety stack,那些持有安全許可證的 OpenAI 研究員,那套持續追蹤 AI 行為的監控系統。它們在接下來的幾年裡,會成長為事實上的行業規範。

Anthropic 因為堅守原則保住了立場,但失去了在規則制定過程中的席位。

而坐到那個席位上的人,是同一個在不到十二小時裡完成了從「聲援」到「簽約」轉變的人。

最諷刺的地方在於:最認真對待 AI 安全的公司,被趕出了最需要認真對待 AI 安全的地方。

接替它進去的公司,兩週前剛剛上線了把用戶對話話題接進廣告系統的機制,三個月前經歷了第三方數據洩露,更早些時候悄悄披露了一套可以把用戶舉報給執法機關的對話掃描系統。

在硅谷,Altman 這不到十二小時的操作有個名字。不叫背刺,叫 timing。

來源:https://m.theblockbeats.info/news/61378

返回頂端