专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
他们也喜欢这个专栏
 • 
RSS订阅
今天看啥  ›  专栏  ›  Hugging Face
The AI community building the future.
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过 【版权申诉通道】联系我们处理。
开通 RSS极速订阅 可分钟级获得文章
欢迎 Mixtral - 当前 Hugging Face 上最先进的 MoE 模型
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | Hugging Face 王铁震:有人的地方就会有江湖,有开发者的地方就会有社区
Hugging Face  ·  公众号  ·  ·  1 年前  · 
Hugging Face 年度回顾:2023,开源大模型之年
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | Mixtral-8x7B MoE 大模型微调实践,超越 Llama2-65B
Hugging Face  ·  公众号  ·  ·  1 年前  · 
Reformer 模型 - 突破语言建模的极限
Hugging Face  ·  公众号  ·  ·  1 年前  · 
混合专家模型 (MoE) 详解
Hugging Face  ·  公众号  ·  ·  1 年前  · 
​3D 高斯点染简介
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | 聊聊推理加速
Hugging Face  ·  公众号  ·  ·  1 年前  · 
Google Colab 环境现已无需手动登录 HF 账号
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | OpenBuddy 发布首款基于 DeepSeek 的跨语言模型
Hugging Face  ·  公众号  ·  ·  1 年前  · 
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过...
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | 元象开源 XVERSE-65B 对话版,注册即可体验高性能大模型!
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | LongQLoRA:单卡高效扩展 LLaMA2-13B 的上下文长度
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | 南方科技大学联合 IDEA 研究院CCNL 中心发布 34B Chat 模型
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | 面向通用决策场景的MCTS基准框架:LightZero
Hugging Face  ·  公众号  ·  ·  1 年前  · 
3D 高斯喷溅 🤗 为什么图形永远不会相同
Hugging Face  ·  公众号  ·  ·  1 年前  · 
使用 PyTorch FSDP 微调 Llama 2 70B
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | 4GB 显存单卡居然能跑 70B 大模型了!
Hugging Face  ·  公众号  ·  ·  1 年前  · 
社区供稿 | Transformers.js 2.9.0 发布, 新增深度估计、无标注物体检测和光学...
Hugging Face  ·  公众号  ·  ·  1 年前  · 
使用 PyTorch 完全分片数据并行技术加速大模型训练
Hugging Face  ·  公众号  ·  ·  1 年前  ·