今天看啥  ›  专栏  ›  机器之心

ICML 2025 | 给AI装上「智能升级插件」!阿里安全-清华大学D-MoLE让模型在持续学习中...

机器之心  · 公众号  · AI  · 2025-07-10 12:26
    

主要观点总结

本文介绍了清华大学和阿里巴巴集团联合研究的多模态大语言模型持续学习的研究成果。研究团队提出了一种新的持续多模态指令微调框架D-MoLE,旨在解决多模态大语言模型在实际应用中面临的挑战。该研究成果被机器学习顶级会议ICML收录。论文详细介绍了D-MoLE框架的研究背景、方法解读、实验结果等业务应用。

关键观点总结

关键观点1: 研究背景

多模态大语言模型通过结合视觉、语音等模态编码器与文本生成模型,展现出处理多模态数据的强大能力。然而,在实际应用中,预训练的多模态大语言模型会随着用户需求和任务类型的变化面临新的适配要求。如何让模型持续地适应新任务,同时保留过去的知识成为一个核心挑战。

关键观点2: 研究内容

研究团队提出了一种新的持续多模态指令微调框架D-MoLE,打破了传统模型结构固定的思路,允许模型在参数预算受控的条件下,根据任务需求动态地调整模型架构。D-MoLE框架包含两个核心模块:动态分层专家分配器和基于梯度的跨模态持续课程。

关键观点3: 方法解读

D-MoLE框架的核心思想是通过动态调整模型结构和学习策略,以应对持续学习中的任务架构冲突和模态不平衡问题。整体框架包括动态分层专家分配器和基于梯度的跨模态持续课程两大核心组件。

关键观点4: 实验结果

研究团队在多个任务上进行了实验评估,结果表明D-MoLE框架在平均指标上相较于当前最强基线提升约15%。此外,D-MoLE还在通用能力评估和消融实验中表现出优异的性能。

关键观点5: 业务应用

D-MoLE可以应用于提升阿里安全多模态审核大模型在交互内容安全场景下的持续适应能力。通过选择性地在关键层插入LoRA模块,模型能够在不影响原有能力的前提下,快速适配新的平台或规则。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照