注册
登录
专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
RSS订阅
我也要提交微信公众号
专栏 二维码
今天看啥
公众号rss, 微信rss, 微信公众号rss订阅, 稳定的RSS源
微信公众号RSS订阅方法
RSSHub订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词RSS订阅方法
知网期刊RSS订阅方法
即刻RSS订阅方法
他们也喜欢这个专栏
•
RSS订阅
今天看啥
›
专栏
›
Hugging Face
The AI community building the future.
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过
【版权申诉通道】
联系我们处理。
最新
开通
RSS极速订阅
可分钟级获得文章
欢迎 Mixtral - 当前 Hugging Face 上最先进的 MoE 模型
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | Hugging Face 王铁震:有人的地方就会有江湖,有开发者的地方就会有社区
Hugging Face
·
公众号
·
· 1 年前 ·
Hugging Face 年度回顾:2023,开源大模型之年
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | Mixtral-8x7B MoE 大模型微调实践,超越 Llama2-65B
Hugging Face
·
公众号
·
· 1 年前 ·
Reformer 模型 - 突破语言建模的极限
Hugging Face
·
公众号
·
· 1 年前 ·
混合专家模型 (MoE) 详解
Hugging Face
·
公众号
·
· 1 年前 ·
3D 高斯点染简介
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | 聊聊推理加速
Hugging Face
·
公众号
·
· 1 年前 ·
Google Colab 环境现已无需手动登录 HF 账号
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | OpenBuddy 发布首款基于 DeepSeek 的跨语言模型
Hugging Face
·
公众号
·
· 1 年前 ·
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过...
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | 元象开源 XVERSE-65B 对话版,注册即可体验高性能大模型!
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | LongQLoRA:单卡高效扩展 LLaMA2-13B 的上下文长度
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | 南方科技大学联合 IDEA 研究院CCNL 中心发布 34B Chat 模型
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | 面向通用决策场景的MCTS基准框架:LightZero
Hugging Face
·
公众号
·
· 1 年前 ·
3D 高斯喷溅 🤗 为什么图形永远不会相同
Hugging Face
·
公众号
·
· 1 年前 ·
使用 PyTorch FSDP 微调 Llama 2 70B
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | 4GB 显存单卡居然能跑 70B 大模型了!
Hugging Face
·
公众号
·
· 1 年前 ·
社区供稿 | Transformers.js 2.9.0 发布, 新增深度估计、无标注物体检测和光学...
Hugging Face
·
公众号
·
· 1 年前 ·
使用 PyTorch 完全分片数据并行技术加速大模型训练
Hugging Face
·
公众号
·
· 1 年前 ·
上一页
1
2
……
11
12
13
14
下一页