专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
他们也喜欢这个专栏
 • 
RSS订阅
今天看啥  ›  专栏  ›  香侬科技
交流人工智能技术
免责声明:本专栏仅为信息导航参考,不代表原文立场或观点。 原专栏内容版权归原作者所有,如您为原作者并希望删除该专栏,请通过 【版权申诉通道】联系我们处理。
开通 RSS极速订阅 可分钟级获得文章
香侬读 | 自训练 + 预训练 = 更好的自然语言理解模型
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬聊 | 信息抽取在信息披露上的应用
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | 你可能不需要固定词表:一种与词表无关的组合式词向量方法
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | 采样算法哪家强:一个针对主流采样算法的比较
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬科技入选“首届‘新基建+数字金融’全球金融科技创新实践案例”
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | 用文本指导文本:基于文本的自监督可控文本生成模型
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | 切分也重要:基于多粒度语言单元切分的BERT模型
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | 机器翻译中丢掉词向量层会怎样?
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | Beam Search还能更快?结合优先队列的最佳优先化Beam Search
香侬科技  ·  公众号  ·  ·  4 年前  · 
香侬读 | 搜索,然后学习:两阶段的无监督文本生成
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | 向预训练进一步:掩码式非自回归模型训练
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | 复述(paraphrasing):一种简单暴力的预训练方式
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | 更深的编码器+更浅的解码器=更快的自回归模型
香侬科技  ·  公众号  ·  ·  5 年前  · 
李纪为入选《麻省理工科技评论》「全球35岁以下科技创新35人」榜
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | Funnel-Transformer:让Transformer更高效地处理长序列
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬 ICML 2020 | 提出基于类别描述的文本分类模型
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | 基于不同硬件搜索更好的Transformer结构
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | 预训练生成模型:结合VAE与BERT/GPT-2提高文本生成效果
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | VD-BERT:用BERT搭建统一的视觉对话模型
香侬科技  ·  公众号  ·  ·  5 年前  · 
香侬读 | 非自回归也能预训练:基于插入的硬约束生成模型预训练方法
香侬科技  ·  公众号  ·  ·  5 年前  ·