今天看啥  ›  专栏  ›  硅基流动

SiliconCloud API 升级:128K 最大上下文推理,灵活控制思维链长度

硅基流动  · 公众号  · 科技自媒体  · 2025-05-22 12:01
    

主要观点总结

本文介绍了硅基流动平台对包括DeepSeek-R1在内的所有推理模型API完成的新一轮升级,以更好地满足开发者对长上下文及相关长度参数配置灵活性的需求。

关键观点总结

关键观点1: 支持更大的上下文长度

硅基流动平台支持最大128K的上下文长度,使得模型能够更充分地思考并输出更完整的内容。这一升级有效满足了代码生成、智能体等复杂推理任务的需求。

关键观点2: 独立控制并分开计量“思维链”与“回复内容”长度

平台支持独立控制“思维链”和“回复内容”的长度,并按需高效利用模型推理能力。开发者可以根据实际任务的难易程度灵活控制模型的思考深度及回复长度。

关键观点3: 提供长度参数说明

为了帮助用户准确理解本次更新机制,文章对推理模型中涉及的各类长度参数及其关系作了简要说明,包括最大思维链长度、最大回复长度和最大上下文长度的定义及其作用。

关键观点4: 更新API使用文档及新服务上线信息

文章还提到了API使用文档的更新地址,以及近期上线的“硅基朋友”连接计划、DeepSeek一体机的推出、DeepSeek-R1及V3企业服务的新服务上线信息。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照