「最怕」AI 失控的人,放棄了?
安全底線持續後移
在商業體量與競爭壓力下,AI 公司的安全底線正呈現持續後移的趨勢。原本被視為安全標竿的企業,開始悄悄拆除自己立下的安全護欄,導致對 AI 失控最擔憂的人們,逐漸選擇放棄了對安全治理的堅持。
從 Anthropic 到 OpenAI 的轉變
過去,若問 AI 圈哪家公司最在乎安全,答案多半是 Anthropic。這家公司由前 OpenAI 核心成員創立,一直致力於建立嚴格的安全機制。然而,隨著市場競爭加劇,這種「安全優先」的立場正受到挑戰。
文章指出,即使是像 OpenAI 這樣的大廠,也面臨著在商業利益與安全之間做權衡的困境。當安全成本過高或影響產品迭代速度時,部分企業選擇犧牲安全底線以換取市場份額。
治理窗口的關閉
隨著 AI 技術的狂飆突進,原本設立的制度性安全窗口似乎正在永久關閉。許多原本相信透過治理委員會或外部監管能解決問題的專家,如今親口承認:「即使有治理委員會,關鍵時刻也可能做錯決定。」
這意味著,最相信治理的人,如今正親口承認治理的侷限性,並開始轉向其他策略,例如依賴個人影響力或道德約束,而非依賴嚴謹的制度架構。
結論:放棄還是繼續?
面對 AI 可能帶來的失控風險,「最怕」AI 毀滅人類的人,正在經歷一場內心的掙扎。是繼續堅持安全底線,還是順應商業趨勢選擇放棄?這不僅是技術問題,更是對人類未來的重大考驗。
