美國司法部表示Anthropic無法被信賴負責戰鬥系統
政府對Anthropic的訴訟作出回應
美國政府表示,其依法對Anthropic公司處以罰則,原因是該公司試圖限制其Claude AI模型在軍事領域的使用方式。
Anthropic強調AI系統尚不夠可靠
Anthropic公司指出,目前的前沿AI系統尚不夠可靠,無法用來驅動完全自主的武器系統,因此拒絕提供可能被用於殺傷性武器的產品。
雙方爭議持續升溫
- Anthropic已提出法律訴訟,對美國國防部的決定提出挑戰。
- 國防部將Anthropic列為供應鏈風險,但此舉可能在法院中無法成立。
- 國防部高層技術官表示,曾與Anthropic就自主戰爭系統的使用問題產生衝突。
相關來源與討論
該爭議已引發媒體廣泛關注,包括《Wired》、BBC、Defense One及Lawfare等平臺均有報導,強調AI在軍事應用中的倫理與法律風險。
來源:https://www.wired.com/story/department-of-defense-responds-to-anthropic-lawsuit/
