专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
目录
相关文章推荐
今天看啥  ›  专栏  ›  PaperWeekly

ICML 2025 | 抛弃全量微调!北大提出VGP范式,语义低秩分解解锁ViG高效迁移

PaperWeekly  · 公众号  · 科研  · 2025-06-09 13:33
    

主要观点总结

北京大学提出了全新的图神经网络(GNN)视觉建模方法VGP,通过语义低秩分解有效增强了图结构图像模型的参数高效迁移能力。该研究已被人工智能顶会ICML 2025正式接收,相关论文和代码已全部开源。论文第一作者为北京大学博士生艾子翔。此方法在多种下游任务中实现了媲美全量微调的性能,展现出广泛的应用潜力。

关键观点总结

关键观点1: 研究背景

近年来,Vision GNN(ViG)模型成为视觉建模新范式,但大规模模型在迁移到具体下游任务时存在计算与存储负担巨大的问题。

关键观点2: 研究动机

为了解决上述问题,研究团队提出Vision Graph Prompting(VGP)方法,一种专为ViG设计的语义感知提示机制。

关键观点3: 研究方法

VGP基于语义低秩分解,通过三种提示组件注入到图结构中,包括SeLo-Graph Prompt、SeLo-Edge Prompt和SeLo-Node Prompt,以唤醒ViG的语义潜能。

关键观点4: 研究结果

在多个视觉下游任务数据集上,VGP展现出超越现有视觉提示方法的性能,精度媲美全量微调,参数量大幅减少。

关键观点5: 应用价值

VGP为Vision GNN模型的下游适配提供了全新范式,具备广泛应用潜力,可应用于高精度视觉理解、边缘设备部署和多任务快速切换等场景。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照