突破萬次連續編輯極限!中科院提出首個理論保穩的知識保留方法
核心技術與機制
該方法稱為「LyapLock」,透過「虛擬隊列」實時監控知識遺忘風險,動態平衡新舊知識,理論上保證長期編輯穩定不崩盤。
實驗成果與表現
- 在上萬次知識更新中,成功維持模型穩定,編輯效果比主流方法提升11.89%。
- 實驗結果顯示,該框架將連續編輯能力擴展至10,000次以上,同時穩定模型的通用能力。
應用與意義
此技術能賦能現有大模型,讓AI真正實現「持續成長」,為未來人工智慧系統的長期學習與應用奠定理論基礎。
來源:https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrrte5404467.shtml
