专栏名称: 蚂蚁技术AntTech
分享蚂蚁集团的技术能力和技术文化。
目录
今天看啥  ›  专栏  ›  蚂蚁技术AntTech

微调时无需泄露数据或权重,这篇AAAI 2025论文提出的ScaleOT能保护隐私

蚂蚁技术AntTech  · 公众号  · 程序员  · 2025-03-01 08:12
    

主要观点总结

蚂蚁数科、浙江大学、利物浦大学团队构建了一种新的跨域微调(ScaleOT)框架,用于保护大模型的隐私。该框架通过重要性感知型层替换、选择性秩压缩等技术,为模型隐私提供了多种不同规模的有损压缩仿真器,并能促进无损微调。研究论文已被AI顶会 AAAI 2025 录用。该框架旨在解决常规中心化微调过程中的隐私泄露问题,通过跨域微调策略,在保护模型所有权和数据隐私的同时,允许数据所有者和模型所有者之间进行微调。

关键观点总结

关键观点1: 研究背景

常规的中心化微调过程存在模型和数据隐私泄露的问题,需要一种有效的跨域微调策略来解决。

关键观点2: 研究内容

蚂蚁数科、浙江大学、利物浦大学团队提出了一种全新的跨域微调框架(ScaleOT),该框架包括重要性感知型层替换、选择性秩压缩等技术,为模型隐私提供了多种不同规模的有损压缩仿真器。

关键观点3: 方法实现

ScaleOT框架通过估计每层的重要性,用轻量级网络(协调器)替换不太重要的层,保持层之间的语义一致性。同时,采用选择性秩压缩策略,进一步提高模型的隐私保护能力。

关键观点4: 实验结果

ScaleOT在中等和大型语言模型上均取得了显著的效果,实现了更好的性能和模型隐私保护。与基线方法相比,ScaleOT能够提供更灵活的多种规模的压缩模型生成,并能在保护隐私的同时保持模型的性能。

关键观点5: 结论

蚂蚁数科摩斯团队的这一全新大模型隐私微调算法,成功攻克了仿真器生成时计算复杂度高、模型隐私安全性不足等难题,为大模型隐私保护提供了新颖的思路与解决方案。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照