長視頻生成在保持敘事連貫性方面一直面臨記憶管理的挑戰。香港大學(HKU)與快手可靈(Kling)團隊近期提出 MemFlow,使 AI 具備長期記憶與穩定敘事的能力。
MemFlow 是一種「流式自適應記憶機制」,透過動態分配與更新記憶片段,實現低性能開銷的長期記憶管理,減少前後片段的記憶遺忘與劇情錯亂,提高長視頻生成的穩定性與一致性。
該方法旨在於長時間上下文中維持內容的一致性,並被描述為 Flowing Adaptive Memory 的實作方向。相關工作指出 MemFlow 能在長篇敘事的視頻生成中保持角色與情節的一致性,並提升生成效率。相關論述可參考 MemFlow: Flowing Adaptive Memory for Consistent and Efficient Long Video Narratives。
該研究由香港大學與快手可靈(Kling)團隊共同完成。官方摘要表示該方案在降低計算成本的同時,仍能達到接近或與 SOTA 相當的效果,提升長視頻生成的穩定性。
