在这次演讲中,我将谈谈语言预训练和语言生成方面的最新进展。关于语言预训练,我将介绍ELECTRA,我们不同的语言预训练学习比BERT更有效和达到的状态,在斯坦福问题回答基准(队)。在语言生成方面,我将重点介绍我们最近开发的开放域聊天机器人Meena,它在名为SSA的人类相似性度量上达到了最佳水平。

https://m.facebook.com/vinai.io/photos/a.2326188644290473/2674135016162499/?type=3

成为VIP会员查看完整内容
23

相关内容

【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
专知会员服务
199+阅读 · 2020年3月6日
超越BERT、GPT,微软提出通用预训练模型MASS
机器之心
4+阅读 · 2019年5月10日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
谷歌 AI:语义文本相似度研究进展
AI研习社
22+阅读 · 2018年6月13日
干货 | 谷歌 AI:语义文本相似度研究进展
AI科技评论
24+阅读 · 2018年6月12日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
3+阅读 · 2019年8月26日
Arxiv
5+阅读 · 2019年8月22日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
5+阅读 · 2018年1月29日
VIP会员
相关主题
相关VIP内容
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
专知会员服务
199+阅读 · 2020年3月6日
相关资讯
微信扫码咨询专知VIP会员