MIT發現讓AI變聰明的秘密,竟然和人類一模一樣
背景與問題
AI 的真正瓶頸不是腦力大小,而是記憶能力的局限。隨著模型規模的擴大,處理長文本時常出現上下文遺漏、記憶衰減,導致越長的輸入難以保持全局一致性。
遞歸語言模型(Recursive Language Models,RLM)的核心思想
MIT 提出名為遞歸語言模型(Recursive Language Models,RLM)的研究框架,旨在在不改變核心架構與上下文視窗長度的前提下提升對長文本的理解與記憶能力。RLM 通過對模型輸出進行遞歸性處理,或對局部資訊進行多輪整合,以建立更豐富的全局表示。
與現有方法的對比
- 不需要擴大上下文視窗,降低硬體成本。
- 在處理長文本時,能更好地保持跨段落的信息連貫性與記憶。
應用前景與挑戰
該研究為大型語言模型在複雜文本任務中的記憶與推理能力帶來新方向,可能提升長文本理解、摘要與推理能力。但實際落地仍需在多種數據與任務上進行廣泛評估,並關注偏差、計算成本與穩定性等問題。
