Anthropic拒AI軍事用途遭列國安風險 法官憂政府違憲
爭議背景
美國國防部將AI公司Anthropic列為供應鏈風險(SCR),引發其對政府濫用裁量權與違反憲法的抗議。Anthropic堅持其技術不應用於大規模監控或全自主武器系統,因而與五角大廈產生衝突。
訴訟行動
Anthropic已向聯邦法院提起訴訟,將十多個聯邦機構與內閣官員列為被告,指控政府濫用權力並違反憲法。公司聲稱其AI技術在多個領域具備潛力,但拒絕無限制開放給軍方使用。
政府與軍方反應
- 美國國防部於2026年3月3日下令禁用Anthropic的Claude AI系統,並要求六個月內汰換。
- 此命令遭軍方與承包商強烈抵制,認為Claude AI在任務執行與決策支援上具備優勢,且資安風險下將導致效率受損。
- 五角大廈首長彼得·赫格表示,Anthropic的立場激怒了其對AI技術的應用需求。
關鍵聲明
Anthropic執行長達裡奧·阿莫代伊表示,公司「無法昧著良心同意」美國國防部提出的無限制使用AI技術的要求,強調倫理限制必須被維護。
來源
來源:https://tw.news.yahoo.com/anthropic%E6%8B%92ai%E8%BB%8D%E4%BA%8B%E7%94%A8%E9%80%94%E9%81%95%E6%86%B2-%E6%8B%92%E5%88%97%E5%9C%8B%E5%AE%89%E9%A2%A8%E9%9A%AA-%E6%B3%95%E5%AE%98%E6%86%82%E6%94%BF%E5%BA%9C%E9%81%95%E6%86%B2-065151464.html
