OpenAI與美國防部達成機密部署協議提出三項紅線,並反對將Anthropic列為供應鏈風險
協議重點與紅線內容
OpenAI宣佈與美國國防部達成機密AI部署協議,強調未撤除模型護欄,並提出三項用途紅線,包括禁止大規模境內監控、完全自主武器與高風險自動化裁量系統。
對Anthropic的立場
OpenAI公開反對將Anthropic列為供應鏈風險,認為此舉對美國本土頂尖AI企業不公平,並指出該標籤通常用於對待外國敵對勢力,應避免誤用。
合作背景與爭議
- 此前Anthropic遭國防部列為供應鏈風險,引發業界爭議。
- OpenAI與美國國防部合作後,強調其AI技術應用需符合嚴格的道德與安全原則。
- Sam Altman在協議前已向員工發出內部備忘錄,明確訂定與Anthropic相同的兩項紅線,包括禁止用於大規模監控與自主致命武器。
