Ilya警告、LeCun冷嘲、奧特曼沉默:Scaling Law時代還能走多遠?
摘要與要點
過去十年,AI 大型模型的技術本質,是把電力能源透過計算過程轉化為可復用的智能。
根據近期報導,Ilya Sutskever 表示僅靠預訓練算力的增長已逐漸出現平台期,智能的提升需轉向新的研究時代;Yann LeCun 也以其一貫風格提出對當前方向的質疑。
背景與辯論
在 Scaling Law 的脈絡中,模型容量與訓練資料的規模通常推動性能提升,但隨著規模的擴大,增益開始遞減。專家辯論的焦點轉向更高效的演算法、資料利用、系統架構與安全性等領域。
未來展望
文章指出,可能出現「從規模化走向研究導向」的轉變,涉及更高效的演算法、多智能體協作等新方向,以及在實用層面尋求更穩健的商業與技術路徑。
