AI 正在毀掉下一個 Hinton
背景與發展
1986年,Geoffrey Hinton 發表了反向傳播算法的關鍵論文,當時他是一個年輕的認知科學研究者,所研究的領域在學術界被視為邊緣話題。當時的神經網絡幾乎沒有被重視,他僅有極少的資源與支持。
AI 的發展與風險
隨著深度學習的興起,Hinton 成為人工智能領域的奠基人之一。然而,近年來他開始對人工智能的發展產生擔憂,認為當前的AI系統可能對人類構成威脅。
他在多個公開場合表示,AI 的發展已經超越了人類對其行為的控制,出現了「理解幻覺」——即AI看似理解人類語言,實際上只是在預測下一個詞,並未真正理解因果或情感。
關鍵事件與反應
- 2023年5月,Hinton 宣佈從Google離職,表示他對畢生研究產生後悔與恐懼。
- 他公開表示,AI 的發展可能導致人類面臨危機,並呼籲社會對AI的發展進行更嚴謹的審視。
- 多個媒體報導指出,Hinton 的離職是為了「給人類敲響警鐘」,他認為AI若不加以控制,可能最終會對人類造成毀滅性影響。
社會與科技界的回應
Hinton 的發聲引發科技界與公眾廣泛關注。許多專家認為,當創造者開始對自己的創造物感到恐懼時,社會就應提高警覺。
他所提出的警告,被視為科技內部「良知派」的集體呼聲,也呼應了當前AI發展中關於安全與倫理的討論。
