专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
他们也喜欢这个专栏
 • 
RSS订阅
今天看啥  ›  专栏  ›  SparksofAGI
人工智能前沿论文解读
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过 【版权申诉通道】联系我们处理。
开通 RSS极速订阅 可分钟级获得文章
GAIA:据说解决了这个基准,AI研究又会达到一个里程碑(作者自己说的
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
Orca 2:利用提示擦除技术让模型知道如何选择回复策略
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
GPT4答案的概率分布不可见?那就用开源的代理模型估计闭源模型的置信度
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
你是否发现ChatGPT甚至不能按字数要求回复问题?有人做了评测并讨论了可能的原因
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
作者投稿 | 适合LLM时代的in-context PVI测量方法 - 理解数据集或单个实例的难度
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
重用提示词的状态加速推理
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
Transformer不能在分布数据外泛化?不如说模型受限于训练数据中见过的任务族
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
近期值得关注的两个模型:Grok与DeepSeekCoder
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
迭代式合成小模型训练数据:用LLM外推数据误差来逼近真实数据分布
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
微软将扩散模型用在代码生成任务,还透露了ChatGPT参数量
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
如何知道某条数据是否在黑盒大语言模型中预训练过
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
ICL底层机理再探:先转换成任务向量再调整模型行为
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
SELF-RAG: 结合检索并反思检索片段再融合的生成模型
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
类比提示:简单却有效的提示技巧,增强模型复杂任务能力
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
将训练数据按相关性排序可以增强模型效果
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
符尧老师向你发起了关于Compression Theory的自由讨论邀请
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
欧洲对标OpenAI的公司发布Mistral系列,多规模超越Llama
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
从理论上说明像核采样这样的截断式生成方法为什么有效
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
噢!在这停顿!加入暂停标记训练推理,模型效果居然变得更好
SparksofAGI  ·  公众号  ·  ·  1 年前  · 
大模型内在自修正技术仍难以在推理任务上生效
SparksofAGI  ·  公众号  ·  ·  1 年前  ·