题目:

XLNet and Beyond

摘要:

我们提出XLNet,一个广义自回归预训练方法,(1)通过在分解次序的所有排列上最大化期望的可能性,使得学习双向上下文,并且(2)由于其自回归公式克服了伯特的限制。从经验来看,XLNet在20项任务上的表现都优于BERT,而且往往有很大的差距。此外,我们还将讨论类似XLNet的方法在实际应用中实现NLP工业化的重要性。

个人简介:

杨植麟,循环智能(Recurrent AI)的联合创始人。曾效力于Facebook AI Research和Google Brain,与多名图灵奖得主合作发表论文,其研究成果在三十余项标准任务取得state-of-the-art,是XLNet第一作者。本科毕业于清华大学,博士毕业于卡内基梅隆大学。

成为VIP会员查看完整内容
13

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
已删除
将门创投
4+阅读 · 2019年9月10日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
前沿 | CNN取代RNN?当序列建模不再需要循环网络
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Arxiv
9+阅读 · 2020年2月15日
Arxiv
17+阅读 · 2019年4月5日
Arxiv
12+阅读 · 2019年2月28日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
5+阅读 · 2017年9月8日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关VIP内容
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
相关资讯
已删除
将门创投
4+阅读 · 2019年9月10日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
前沿 | CNN取代RNN?当序列建模不再需要循环网络
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
微信扫码咨询专知VIP会员