當AI公司走向戰場,安全被遺忘

當AI公司走向戰場,安全被遺忘

AI發展與軍事應用的衝突

我們曾被承諾會有AI規範與產業競爭,然而現在卻在爭論殺人機器人。隨著AI技術的進步,許多公司開始將其技術應用於軍事領域,導致安全議題被嚴重忽視。

軍事與AI的結合帶來倫理危機

美國軍方在伊朗戰爭中被報導已開始使用人工智慧,這揭示了現代衝突中一個新的面向——人工智慧在戰場上的應用。然而,這也引發了關於倫理與安全的嚴重疑問。

AI安全規範被軍事利益取代

2024年,OpenAI刪除其「禁止軍事與戰場應用」的條款,顯示AI安全規範正逐漸被軍事商業利益所取代。這項變動引發了學界與公眾對AI發展方向的深切擔憂。

企業與政府的壓力

美國五角大樓已要求領先的AI公司Anthropic在2026年2月27日前放棄其AI安全限制,否則將面臨極端處罰。這顯示政府對AI技術的軍事化應用已採取強硬態度。

AI安全的未來挑戰

專家指出,若全球未能建立有效的AI安全框架,將可能導致技術發展失去控制,進而對人類社會造成不可逆的風險。

來源:https://www.wired.com/story/when-ai-companies-go-to-war-safety-gets-left-behind/

返回頂端