专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
他们也喜欢这个专栏
 • 
RSS订阅
今天看啥  ›  专栏  ›  YeungNLP
Firefly开源中文大语言模型官方公众号。
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过 【版权申诉通道】联系我们处理。
开通 RSS极速订阅 可分钟级获得文章
InternLM2.5 开源 1.8B 和 20B 模型
YeungNLP  ·  公众号  ·  ·  12 月前  · 
Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存
YeungNLP  ·  公众号  ·  ·  1 年前  · 
Unsloth微调Llama3-8B,提速44.35%,节省42.58%显存,最少仅需7.75GB显...
YeungNLP  ·  公众号  ·  ·  1 年前  · 
Llama 3 五一超级课堂丨微调、量化部署、评测全覆盖,手把手带你免费学
YeungNLP  ·  公众号  ·  ·  1 年前  · 
Qwen1.5-110B:首个国产千亿参数开源大模型
YeungNLP  ·  公众号  ·  ·  1 年前  · 
弱智吧祛魅,与强Baseline的对比实验,差距明显
YeungNLP  ·  公众号  ·  ·  1 年前  · 
关于弱智吧数据封神的若干疑问和猜想,以及数据验证实验
YeungNLP  ·  公众号  ·  ·  1 年前  · 
书生·浦语大模型实战营第二期,公益AI课程,免费无套路
YeungNLP  ·  公众号  ·  ·  1 年前  · 
使用Firefly在单卡V100上对Qwen1.5进行SFT和DPO,大幅超越Qwen1.5和Gem...
YeungNLP  ·  公众号  ·  ·  1 年前  · 
红包封面,龙年大吉
YeungNLP  ·  公众号  ·  ·  1 年前  · 
图解大模型推理优化之KV Cache
YeungNLP  ·  公众号  ·  ·  1 年前  · 
书生·浦语大模型实战营——两周带你玩转微调部署评测全链路
YeungNLP  ·  公众号  ·  ·  1 年前  · 
Mixtral-8x7B MoE大模型微调实践,超越Llama2-65B
YeungNLP  ·  公众号  ·  ·  1 年前  · 
LongQLoRA:单卡高效扩展LLaMA2-13B的上下文长度
YeungNLP  ·  公众号  ·  ·  1 年前  · 
详解基于调整RoPE旋转角度的大模型长度外推方法
YeungNLP  ·  公众号  ·  ·  1 年前  · 
图解RoPE旋转位置编码及其特性
YeungNLP  ·  公众号  ·  ·  1 年前  · 
QLoRA增量预训练与指令微调,及汉化Llama2的实践
YeungNLP  ·  公众号  ·  ·  1 年前  ·