Undirected neural sequence models such as BERT (Devlin et al., 2019) have received renewed interest due to their success on discriminative natural language understanding tasks such as question-answering and natural language inference. The problem of generating sequences directly from these models has received relatively little attention, in part because generating from undirected models departs significantly from conventional monotonic generation in directed sequence models. We investigate this problem by proposing a generalized model of sequence generation that unifies decoding in directed and undirected models. The proposed framework models the process of generation rather than the resulting sequence, and under this framework, we derive various neural sequence models as special cases, such as autoregressive, semi-autoregressive, and refinement-based non-autoregressive models. This unification enables us to adapt decoding algorithms originally developed for directed sequence models to undirected sequence models. We demonstrate this by evaluating various handcrafted and learned decoding strategies on a BERT-like machine translation model (Lample & Conneau, 2019). The proposed approach achieves constant-time translation results on par with linear-time translation results from the same undirected sequence model, while both are competitive with the state-of-the-art on WMT'14 English-German translation.


翻译:BERT(Devlin等人,2019年)等无方向神经序列模型等无方向神经序列模型由于成功地完成了诸如问答和自然语言推断等有区别的自然语言理解任务而重新受到关注。从这些模型中直接生成序列的问题相对没有引起多少注意,部分原因是从无方向模型产生的脱离了在定向序列模型中传统的单质生成。我们通过提出一个通用的序列生成模型来调查这一问题,该模型在定向和无方向模型中统一解码。拟议的框架模型是生成过程而不是由此产生的序列,在此框架下,我们作为特例,生成了各种神经序列模型,例如自动递增、半潜移和基于精细细的无偏向模型。这一统一使我们能够调整最初为定向序列模型开发的解码算法,使之与无方向序列模型模型模型模型模型的解码战略(Lample & Conneau,2019年),从而证明这一点。拟议的方法既能实现不断翻译的神经序列模型,又能以具有竞争力的线性顺序翻译结果。

1
下载
关闭预览

相关内容

【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
78+阅读 · 2020年2月3日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
160+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
Top
微信扫码咨询专知VIP会员