专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
TodayRss-海外RSS稳定源
他们也喜欢这个专栏
 • 
RSS订阅
今天看啥  ›  专栏  ›  NeuralTalk
关注深度学习框架开发、模型压缩、低比特量化、移动端推理加速性能优化、工程化部署
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过 【版权申诉通道】联系我们处理。
开通 RSS极速订阅 可分钟级获得文章
面向嵌入式机器学习的可预测并行架构:16核RISC-V处理器实现548M周期确定执行
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
推理<2ms!Ultralytics最新YOLO26+树莓派+国产AI加速卡实现 500 FPS 端...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
TTFT p99降低10-15%,SLO违规率下降32%:MIT、UCSD等提出GPU集群中实现可预...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
上交、清华提出面向 LLM 推理的多核 NPU 创新策略:全栈多维度优化实现1.32x-6.03x超...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
脉动阵列理论峰值98%!UCLA、康奈尔大学等提出 Dato:面向数据流加速器基于 Task 的编程...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
SGLang 中的流水线并行:扩展至百万 Token 上下文及更长远景规划
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
实现 1.6T MoE 分布式推理,吞吐超Megatron-LM 1.06倍!Learn to Sh...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
一张表搞定 NPU 大模型推理!USTC/微软/清华联合提出 T-MAN 方案:解码提速 3.1 倍...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
MoE训练内存最多降4倍,加速达6倍!Meta与ThinkMachine提出MoEBlaze:用索引...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
微基准视角下 NVIDIA Blackwell 架构深度解析:FP4/FP6赋能LLM 2.5倍推理...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
微软开源 Sigma-MoE-Tiny:40:1 极致稀疏比的 20B MoE 模型,0.5B 激活...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
打破库依赖与 93% 峰值效率!Intel 提出 MLIR 驱动的编译器自动生成 NanoKerne...
NeuralTalk  ·  公众号  ·  ·  3 月前  · 
最高16倍加速、精度近无损!阿里 VLCache 大幅提升视觉语言模型推理效率:只算 2%token...
NeuralTalk  ·  公众号  ·  ·  3 月前  ·