今天看啥  ›  专栏  ›  机器之心

ICML 2025 | M+框架来了,增加LLM隐空间记忆,不再受上下文窗口限制

机器之心  · 公众号  · AI  · 2025-07-15 11:20
    

主要观点总结

本文主要介绍了M+扩展框架,它是在MemoryLLM基础上的长期隐空间记忆扩展。该框架通过将过期隐藏向量写入CPU侧长期记忆池,并用协同检索器拉回最相关记忆,将8B级模型的有效记忆跨度从原本的不到20ktokens提升到160ktokens以上,同时显存占用保持不变。文章还介绍了M+的背景、关键改进、实验结果和技术支撑。

关键观点总结

关键观点1: M+扩展框架介绍

M+是在MemoryLLM基础上的长期隐空间记忆扩展框架,通过将过期隐藏向量写入CPU侧长期记忆池,提高模型的有效记忆跨度。

关键观点2: M+的背景和缺陷

上下文窗口并不能直接等价于记忆,现有记忆模型存在冗余、冲突难解和多模态能力弱等问题。

关键观点3: M+的关键改进

M+通过引入长期记忆,探索隐空间的Memory,既压缩又可端到端训练,更接近人类在神经激活中存储信息的方式。

关键观点4: M+的实验结果

M+在Longbook-QA和Longbook-Event-QA数据集上获得更强大的性能,有效记忆跨度从50k提升到160k,且在SQuAD数据集上表现出远超MemoryLLM-7B的信息留存能力。

关键观点5: 未来研究方向

未来将继续研究更高效的存储机制、更智能的检索策略,以及与多模态输入更自然融合的隐空间记忆架构。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照