今天看啥  ›  专栏  ›  爱范儿

华为首个开源大模型来了:会「快慢思考」推理飞快,双版本免费用

爱范儿  · 公众号  · 科技媒体  · 2025-06-30 10:23
    

主要观点总结

华为宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。盘古Embedded 7B模型具备元认知能力,可自动切换推理模式,并在复杂推理基准测试中超越其他模型。盘古Pro MoE 72B模型采用分组混合专家架构,解决专家负载不均问题,针对昇腾硬件优化,性能优于同规模稠密模型,支持大规模并行训练。相关模型权重与推理代码已上线开源平台。

关键观点总结

关键观点1: 华为开源盘古70亿参数稠密模型

该模型采用双系统框架,具备快思考和慢思考能力,可根据任务复杂度自动切换推理模式,并在昇腾NPU上优化部署。

关键观点2: 盘古Pro MoE 720亿参数混合专家模型

该模型基于分组混合专家架构,解决专家负载不均问题,针对昇腾硬件深度优化,推理速度高效,性能优于同规模稠密模型,并支持大规模并行训练。

关键观点3: 模型推理技术

华为基于昇腾的超大规模MoE模型推理代码已正式上线开源平台,邀请全球开发者、企业伙伴及研究人员共同完善。

关键观点4: 开源平台

盘古相关模型权重与推理代码已上线开源平台,访问地址:https://gitcode.com/ascend-tribe。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照