注册
登录
微博登录
专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
RSS订阅
我也要提交微信公众号
专栏 二维码
今天看啥
公众号rss, 微信rss, 微信公众号rss订阅, 稳定的RSS源
微信公众号RSS订阅方法
RSSHub订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词RSS订阅方法
知网期刊RSS订阅方法
即刻RSS订阅方法
他们也喜欢这个专栏
•
RSS订阅
今天看啥
›
专栏
›
NLP PaperWeekly
论文学习,主要关注nlp,对话系统,大模型,多模态等领域的论文
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过
【版权申诉通道】
联系我们处理。
最新
开通
RSS极速订阅
可分钟级获得文章
DeepMid & Stanford|DoReMi:调整数据权重,性能提升6.5%,速度提升2.6倍...
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
ACL2023 | Self-Adaptive ICL: 完蛋!我被高质量示例包围了!
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
Google | HtT: 大模型通过学习推理规则改善幻觉现象
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
ACL2023 |小模型也能一步步“思考”
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
kaggle大模型竞赛优胜方案总结与思考
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
Microsoft | GPT-4 API太贵了,微软提出省钱大法
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
符尧:别卷大模型训练了,来卷数据吧!【干货十足】
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
Meta AI | 指令回译:如何从大量无标签文档挖掘高质量大模型训练数据?
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?
NLP PaperWeekly
·
公众号
·
· 1 年前 ·
哈工大秦兵教授 | 大语言模型之人类价值观对齐
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
模型推理服务化框架Triton保姆式教程(三):开发实践
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
模型推理服务化框架Triton保姆式教程(二):架构解析
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
模型推理服务化框架Triton保姆式教程(一):快速入门
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
大模型开源之光LLaMA2今天发布了,再来读下LLaMA1原文吧
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
大模型时代信息抽取任务该何去何从?复旦发布InstructUIE提升大模型信息抽取能力
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
大模型实践总结-最新版(2023.07.03)
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
ChatLaw:北大凭什么以13B的基座模型击败恐怖如斯的GPT4?
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
ICLR 2023 | ReAct:首次结合Thought和Action提升大模型解决问题的能力
NLP PaperWeekly
·
公众号
·
· 2 年前 ·
上一页
1
2
……
4
5