AI合約爭議 美戰爭部槓Anthropic

AI合約爭議 美戰爭部槓Anthropic

事件背景

2026年2月,美國戰爭部(Department of War)與人工智慧巨頭Anthropic之間的緊張關係全面升級。這場爭議的導火線,源自於美軍近期在委內瑞拉的軍事行動中,對AI技術的應用需求增加,進而引發與Anthropic之間的合約爭議。

核心爭議點

  • Anthropic堅持在與戰爭部簽署的2億美元合約中加入兩項禁令:禁止將AI用於「大規模監控美國人民」,以及禁止參與「無人類決策的自主武器系統」。
  • 美國國防部則要求撤除這些軍事用途限制條款,並強調AI需全面用於軍事行動。

雙方對立與後續發展

Anthropic的CEO Dario Amodei拒絕美國五角大廈的要求,堅持其AI兩大紅線,並拒絕配合無人類決策的武器系統。

作為回應,美國國防部將Anthropic列為「供應鏈風險」,並公開標記為國家安全威脅。Anthropic已提起訴訟,挑戰此決定,成為美國首例AI供應商與政府之間的法律對決。

此事件促使美國國防部轉向與其競爭對手OpenAI合作,並可能改變未來AI與國防產業的協作模式。

來源:https://tw.news.yahoo.com/ai%E5%90%88%E7%B4%84%E7%88%AD%E8%AD%B0-%E7%BE%8E%E6%88%B0%E7%88%AD%E9%83%A8%E6%A7%93anthropic-033413029.html

返回頂端