|
|
港中文:探索大规模多模态预训练的极限 | Transformers 与RNN在表示能力上的差异探究 AI for Research · 公众号 · · 1 年前 · |
|
|
英伟达发布近百亿级Mamba语言模型研究:Transformer真的更好吗?线性回归中的缩放律:计算... AI for Research · 公众号 · 前端 科技媒体 · 1 年前 · |
|
|
字节提出TiTok: 32个token实现256x256图像表示 | 清华发布多模态大海捞针... AI for Research · 公众号 · · 1 年前 · |
|
|
你的模型是否在我的数据集上训练过?模型感知的数据选择 | 高效扩展LLM的上下文窗口... AI for Research · 公众号 · · 1 年前 · |
|
|
谷歌也来卷虚拟穿搭穿了!提升大模型代码生成的能力 | 评估模型的组合泛化能力 AI for Research · 公众号 · · 1 年前 · |
|
|
本周大模型Top热门论文精选 —— 24年第23期 AI for Research · 公众号 · · 1 年前 · |
|
|
OpenAI:稀疏自编码器的规模定律与评估 | DeepMind:开放式是实现超人工智能的关键 | ... AI for Research · 公众号 · · 1 年前 · |
|
|
奖励模型过度优化的缩放定律 | 大模型学习多模态而不遗忘纯文本研究 | Xmodel-LM技术报告.... AI for Research · 公众号 · · 1 年前 · |
|
|
算术任务中上下文学习与技能组合的涌现 | 信还是不信?大模型不确定性量化问题 | 生物和人工通用智能... AI for Research · 公众号 · · 1 年前 · |
|
|
大模型特定领域持续预训练缩放法则 | 学习无关数据集训练价值估计 | 微软:大模型的自动指令进化 AI for Research · 公众号 · · 1 年前 · |
|
|
斯坦福:单个数据点价值的缩放定律 | 利用隐式Q*逼近实现样本高效的RLHF... AI for Research · 公众号 · · 1 年前 · |
|
|
本周大模型Top热门论文精选 —— 24年第22期 AI for Research · 公众号 · · 1 年前 · |
|
|
OpenAI分享他们在RAG技术的最佳实践.... AI for Research · 公众号 · · 1 年前 · |
|
|
Xwin-LM终于更新了,大模型强有力的对齐实践!| 上下文学习足以满足大模型中的指令遵循吗?...... AI for Research · 公众号 · · 1 年前 · |
|
|
牛津&谷歌联合发文:大模型在高级心智理论任务上达到成人水平表现!| 大模型持续学习最新进展综述...... AI for Research · 公众号 · · 1 年前 · |
|
|
消息泛化实现数千种偏好的对齐 | 从SFT数据中获取更多价值,提升LLM对齐 | 任何场景下任何服饰... AI for Research · 公众号 · · 1 年前 · |
|
|
从统一视角解锁线性复杂度序列模型的秘密 | 实现更好的对齐性能,只需更少的数据进行单步优化.... AI for Research · 公众号 · · 1 年前 · |
|
|
阿里:数据量与混合比例双变量缩放定律 | 判别式分类大模型的缩放定律 | 时间序列预测的缩放定律..... AI for Research · 公众号 · · 1 年前 · |
|
|
本周大模型Top热门论文精选 —— 24年第21期 AI for Research · 公众号 · · 1 年前 · |
|
|
时间序列大模型的规模定律 | 脑机接口能提取多少字节的大脑信息解码文本?| 360发布智脑技术报告.... AI for Research · 公众号 · · 1 年前 · |