主要观点总结
GLM-4.7-Flash是一个混合思考模型,已正式发布并开源。作为同级别SOTA模型,它在性能与效率上提供了新的选择。该模型已在智谱开放平台BigModel.cn上线,供免费调用。它在主流基准测试中表现优秀,超过了一些其他模型。GLM-4.7-Flash在编程场景以及中文写作、翻译、长文本、情感/角色扮演等通用场景中都有很好的表现。
关键观点总结
关键观点1: GLM-4.7-Flash模型的发布与特点
今天,GLM-4.7-Flash正式发布并开源,是一个混合思考模型,总参数量为 30B ,激活参数量为 3B。它提供了一个兼顾性能与效率的新选择。
关键观点2: GLM-4.7-Flash的上线与调用
即日起,GLM-4.7-Flash将在智谱开放平台BigModel.cn上线,并替代GLM-4.5-Flash供免费调用。API接入体验中心和使用指南已提供。
关键观点3: GLM-4.7-Flash的优异表现
在主流基准测试中,GLM-4.7-Flash的综合表现超过了一些其他模型,取得了开源SOTA分数。在编程场景以及中文写作、翻译、长文本、情感/角色扮演等通用场景中都有很好的表现。
关键观点4: GLM-4.5-Flash的下线与升级
上一代免费语言模型GLM-4.5-Flash将于2026年1月30日下线,相关请求将自动路由至GLM-4.7-Flash。开源部署和魔搭社区链接已提供。
免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。
原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过
【版权申诉通道】联系我们处理。