注册
登录
微博登录
专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
RSS订阅
我也要提交微信公众号
专栏 二维码
今天看啥
公众号rss, 微信rss, 微信公众号rss订阅, 稳定的RSS源
微信公众号RSS订阅方法
RSSHub订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词RSS订阅方法
知网期刊RSS订阅方法
即刻RSS订阅方法
他们也喜欢这个专栏
•
RSS订阅
今天看啥
›
专栏
›
SparksofAGI
人工智能前沿论文解读
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过
【版权申诉通道】
联系我们处理。
最新
开通
RSS极速订阅
可分钟级获得文章
GAIA:据说解决了这个基准,AI研究又会达到一个里程碑(作者自己说的
SparksofAGI
·
公众号
·
· 1 年前 ·
Orca 2:利用提示擦除技术让模型知道如何选择回复策略
SparksofAGI
·
公众号
·
· 1 年前 ·
GPT4答案的概率分布不可见?那就用开源的代理模型估计闭源模型的置信度
SparksofAGI
·
公众号
·
· 1 年前 ·
你是否发现ChatGPT甚至不能按字数要求回复问题?有人做了评测并讨论了可能的原因
SparksofAGI
·
公众号
·
· 1 年前 ·
作者投稿 | 适合LLM时代的in-context PVI测量方法 - 理解数据集或单个实例的难度
SparksofAGI
·
公众号
·
· 1 年前 ·
重用提示词的状态加速推理
SparksofAGI
·
公众号
·
· 1 年前 ·
Transformer不能在分布数据外泛化?不如说模型受限于训练数据中见过的任务族
SparksofAGI
·
公众号
·
· 1 年前 ·
近期值得关注的两个模型:Grok与DeepSeekCoder
SparksofAGI
·
公众号
·
· 1 年前 ·
迭代式合成小模型训练数据:用LLM外推数据误差来逼近真实数据分布
SparksofAGI
·
公众号
·
· 1 年前 ·
微软将扩散模型用在代码生成任务,还透露了ChatGPT参数量
SparksofAGI
·
公众号
·
· 1 年前 ·
如何知道某条数据是否在黑盒大语言模型中预训练过
SparksofAGI
·
公众号
·
· 1 年前 ·
ICL底层机理再探:先转换成任务向量再调整模型行为
SparksofAGI
·
公众号
·
· 1 年前 ·
SELF-RAG: 结合检索并反思检索片段再融合的生成模型
SparksofAGI
·
公众号
·
· 1 年前 ·
类比提示:简单却有效的提示技巧,增强模型复杂任务能力
SparksofAGI
·
公众号
·
· 1 年前 ·
将训练数据按相关性排序可以增强模型效果
SparksofAGI
·
公众号
·
· 1 年前 ·
符尧老师向你发起了关于Compression Theory的自由讨论邀请
SparksofAGI
·
公众号
·
· 1 年前 ·
欧洲对标OpenAI的公司发布Mistral系列,多规模超越Llama
SparksofAGI
·
公众号
·
· 1 年前 ·
从理论上说明像核采样这样的截断式生成方法为什么有效
SparksofAGI
·
公众号
·
· 1 年前 ·
噢!在这停顿!加入暂停标记训练推理,模型效果居然变得更好
SparksofAGI
·
公众号
·
· 1 年前 ·
大模型内在自修正技术仍难以在推理任务上生效
SparksofAGI
·
公众号
·
· 1 年前 ·
上一页
1
2
3
4
5
6
下一页