主要观点总结
本文介绍了DeepSeek官方揭秘的DeepSeek-V3/R1推理系统,包括其优化吞吐量和延迟的方法、大规模跨节点专家并行、计算通信重叠、负载均衡等关键点,以及系统的在线服务数据统计。
关键观点总结
关键观点1: DeepSeek-V3/R1推理系统的优化目标及实现方法
DeepSeek-V3/R1推理系统的优化目标是实现更大的吞吐和更低的延迟。通过大规模跨节点专家并行(ExpertParallelism/EP)来实现这一目标。EP能够增大batch size,提高GPU矩阵乘法的效率,同时分散专家在不同的GPU上,减少每个GPU的计算负载,从而降低延迟。但这也增加了系统的复杂性,需要优化传输和计算流程,以及进行负载均衡。
关键观点2: 大规模跨节点专家并行(EP)的细节
由于DeepSeek-V3/R1的专家数量众多,必须采用大规模跨节点专家并行(EP)。通过多机多卡间的专家并行策略,实现prefill和decode阶段的双batch重叠,掩盖通信开销,提高整体吞吐。同时,EP还涉及负载均衡问题,需要为每个GPU分配均衡的计算负载和通信负载。
关键观点3: DeepSeek-V3/R1推理系统的在线服务数据统计
DeepSeekV3和R1的所有服务均使用H800 GPU,提供24小时的服务。在统计时段内,输入token总数为608B,其中56.3%命中KVCache硬盘缓存。输出token总数为168B,平均输出速率为20~22tps。平均每台H800的吞吐量为:对于prefill任务,输入吞吐约73.7k tokens/s;对于decode任务,输出吞吐约14.8k tokens/s。此外,还给出了成本利润率的计算。
免责声明
免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。
原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过
【版权申诉通道】联系我们处理。