谷歌剛掀了模型記憶的桌子,英偉達又革了注意力的命
Nested Learning 引發模型記憶革命
近期,谷歌的Nested Learning引發了一場模型界的記憶地震。很多人重新意識到,大模型不必永遠是「訓練完就封存」的只讀權重,它也可以在推理過程中繼續學習和更新參數,讓新信息真正融入其內部記憶。
英偉達推動注意力機制革新
在Nested Learning中,當模型讀到新的上下文時,它不只是把文本塞進注意力的緩存裡臨時翻找,而是允許自己在推理過程中更改參數,讓新信息變成它內部記憶的一部分。這項技術被視作對傳統注意力機制的重大突破。
相關技術與應用延伸
- DeepSeek 推理分裂出多重人格,左右腦互搏越來越聰明,展現出更復雜的思維能力。
- 首個真正“能用”的LLM遊戲Agent誕生,具備實時高頻決策能力,思維鏈全程可見,支持圖片生成與仿真。
- 360發佈視覺大模型,強調多模態是大模型必經之路,認為大語言模型是構建視覺大模型的基礎。
