今天看啥  ›  专栏  ›  得物技术

利用多Lora节省大模型部署成本|得物技术

得物技术  · 公众号  · 互联网短视频 科技自媒体  · 2024-08-19 18:30
    

主要观点总结

本文主要介绍了利用多Lora技术合并部署大模型以节省成本的方法,包括Lora概念、如何开启大模型的Lora微调、如何基于Lora部署大模型、多Lora部署大模型的技术原理、适用场景、支持多Lora的推理框架、性能限制等。

关键观点总结

关键观点1: Lora概念

Lora是一种低秩自适应技术,通过微调大模型的少量参数来适应特定业务场景,显著减少训练参数数量和GPU内存需求。

关键观点2: 如何开启大模型的Lora微调

通过配置算法框架的参数,执行训练命令,即可启动大模型的Lora微调。

关键观点3: 基于Lora部署大模型的流程

合并Lora参数和大模型原始参数,生成新的微调大模型,选择合适的推理引擎进行部署。

关键观点4: 多Lora部署大模型的技术原理

不合并Lora文件,而是在显存中同时加载基础大模型和各业务场景的Lora文件,直接进行推理,以节省部署成本。

关键观点5: 多Lora适用的场景

适用于业务场景多样化且调用量较小的场景,通过共享基础大模型,使用多个Lora文件满足多个业务的需求。

关键观点6: 支持多Lora的推理框架

目前推荐VLLM推理引擎,支持多Lora功能,易于使用和部署。

关键观点7: 多Lora的性能和限制

多Lora对推理的吞吐和速度影响较小。使用时需注意共享基础大模型和Lora秩的限制。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照