今天看啥  ›  专栏  ›  机器之心

「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

机器之心  · 公众号  · AI  · 2025-07-17 13:03
    

主要观点总结

大型语言模型面临计算与内存开销的挑战,谷歌新提出的Mixture-of-Recursions(MoR)架构被视为一个高效的解决方案。MoR结合了参数共享和自适应计算,在递归Transformer的基础上进化,通过动态token级路由实现参数高效性。该架构旨在实现无需大模型成本的大模型质量,具有三项优化:参数共享、计算路由和递归级缓存。实验表明,MoR在参数效率和计算效率之间达到了良好平衡,并在多项指标上超越了基线模型。此外,MoR还提供了可扩展性和推理吞吐能力的提升。

关键观点总结

关键观点1: MoR架构概述

MoR是谷歌在递归Transformer基础上进化而来的新LLM模型架构。它旨在通过动态token级路由实现参数共享和自适应计算,从而实现高效的大型语言模型。

关键观点2: MoR的主要优点

MoR架构具有三项优化:参数共享、计算路由和递归级缓存。这些优化使得MoR在参数效率和计算效率之间达到了良好平衡,并在多项指标上超越了基线模型。

关键观点3: MoR的实验结果

实验表明,MoR在各种模型规模和计算预算下都表现出优异的性能。此外,MoR还提升了推理吞吐量,降低了内存占用。

关键观点4: MoR的潜在影响

MoR为开发更具认知启发性的AI系统提供了基础。其能够按每个token自适应地分配「思考深度」的能力,与语言模型中新兴的潜在推理和内部思考研究相一致。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照