當AI公司走向戰場,安全被遺忘
AI發展與軍事應用的衝突
我們曾被承諾會有AI規範與產業競爭,然而現在卻在爭論殺人機器人。隨著AI技術的進步,許多公司開始將其技術應用於軍事領域,導致安全議題被嚴重忽視。
軍事與AI的結合帶來倫理危機
美國軍方在伊朗戰爭中被報導已開始使用人工智慧,這揭示了現代衝突中一個新的面向——人工智慧在戰場上的應用。然而,這也引發了關於倫理與安全的嚴重疑問。
AI安全規範被軍事利益取代
2024年,OpenAI刪除其「禁止軍事與戰場應用」的條款,顯示AI安全規範正逐漸被軍事商業利益所取代。這項變動引發了學界與公眾對AI發展方向的深切擔憂。
企業與政府的壓力
美國五角大樓已要求領先的AI公司Anthropic在2026年2月27日前放棄其AI安全限制,否則將面臨極端處罰。這顯示政府對AI技術的軍事化應用已採取強硬態度。
AI安全的未來挑戰
專家指出,若全球未能建立有效的AI安全框架,將可能導致技術發展失去控制,進而對人類社會造成不可逆的風險。
來源:https://www.wired.com/story/when-ai-companies-go-to-war-safety-gets-left-behind/
