|
给普通人的26条提示工程策略..... AI for Research · 公众号 · · 1 年前 · |
|
Transformer其实是线性的? | SirLLM: 流式无限记忆LLM | SPO: 多维偏好... AI for Research · 公众号 · · 1 年前 · |
|
阿里发布OpenRLHF:易于使用、可扩展且高性能的RLHF框架 | ViViD: 使用扩散模型进行... AI for Research · 公众号 · · 1 年前 · |
|
缩放定律与模型性能的可预测性 | 从Sora能看到什么:文本到视频生成的综述 | OpenAI发布人... AI for Research · 公众号 · · 1 年前 · |
|
AI 原生应用产品开发之道,通过 10 个工具一天内启动在线业务! AI for Research · 公众号 · · 1 年前 · |
|
为什么简单地增大 Transformer 模型的规模并不一定能提升性能?华为研究人员通过关联记忆找到... AI for Research · 公众号 · · 1 年前 · |
|
本周大模型Top热门论文精选 —— 第20期 AI for Research · 公众号 · · 1 年前 · |
|
为什么 GPT-4 比一年前更“聪明”了?主要都是后训练(Post-Training)带来的! AI for Research · 公众号 · · 1 年前 · |
|
数据增强方法综述 | LoRA学习新知识较少但遗忘更少 | GPT商店挖掘与分析 AI for Research · 公众号 · · 1 年前 · |
|
ALPINE: 揭示自回归学习在语言模型中的规划能力 | 小型LLMs也可以通过领域特定的自回归训练... AI for Research · 公众号 · · 1 年前 · |
|
腾讯发布Hunyuan-DiT中文理解能力超强 | 基于Phi-3的更好的评估模型 | “思考令牌”... AI for Research · 公众号 · · 1 年前 · |