突破萬次連續編輯極限!中科院提出首個理論保穩的知識保留方法

突破萬次連續編輯極限!中科院提出首個理論保穩的知識保留方法

核心技術與機制

該方法稱為「LyapLock」,透過「虛擬隊列」實時監控知識遺忘風險,動態平衡新舊知識,理論上保證長期編輯穩定不崩盤。

實驗成果與表現

  • 在上萬次知識更新中,成功維持模型穩定,編輯效果比主流方法提升11.89%。
  • 實驗結果顯示,該框架將連續編輯能力擴展至10,000次以上,同時穩定模型的通用能力。

應用與意義

此技術能賦能現有大模型,讓AI真正實現「持續成長」,為未來人工智慧系統的長期學習與應用奠定理論基礎。

來源:https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrrte5404467.shtml

返回頂端