哈薩比斯出的難題,GPT之父接上了:用一個知識停在1930年的模型
研究背景與核心問題
今年年初,哈薩比斯提出了一個極其硬核的AGI(人工通用智能)判定標準:一個訓練數據截止到1911年的模型,能不能自己推導出愛因斯坦1915年提出的廣義相對論?這個問題旨在測試AI是否真正理解知識,還是僅僅在重複訓練數據。
實驗設計與模型構建
研究者Alec Radford等人使用1931年前的數據訓練了一個13B參數的模型Talkie,其「世界觀」被凍結在1930年12月31日,完全切斷了現代知識的汙染。該模型沒有接觸過任何現代技術或編程語言,卻在測試中展現出令人驚訝的能力。
關鍵發現與技術挑戰
- 模型能部分理解編程概念:儘管沒有見過一行代碼,Talkie卻能寫出Python代碼,顯示出其具備一定的邏輯推理與語言生成能力。
- 時間洩漏問題:舊書重版中的現代序言或檔案整理註釋,可能無意中引入後設信息,即使採用特徵過濾算法也難以完全阻斷。
- 知識斷層的測試價值:這種「復古模型」為研究者提供了罕見機會,以驗證AI是否真正理解知識,而非僅依賴數據訓練。
延伸討論與未來意義
這項研究不僅挑戰了當前大模型的訓練方式,也引發了對AI是否具備真正理解與推理能力的深層思考。若一個沒有現代知識的模型能自主推導出複雜科學理論,將為AGI的發展提供關鍵證據。
