如何缓解非自回归翻译的多峰问题?试试微信AI 的RecoverSAT模型

2020 年 10 月 28 日 微信AI

本文基于ACL 2020论文《Learning to Recover from Multi-Modality Errors for Non-Autoregressive Neural Machine Translation》撰写。


导语


非自回归神经机器翻译(non-autoregressive neural machine translation,简称非自回归翻译)是近年来兴起的一种新的机器翻译方法。为了提升翻译速度,其抛弃了目标语言词间的依赖关系,并行生成所有目标词,显著提升了翻译速度。但由于同一段原文经常有多种可行的潜在译文,使得非自回归翻译模型在解码时会出现不同位置的目标语言词是从不同的潜在译文中选取的问题,被称为多峰问题(multi-modality problem)。该问题通常表现为重复翻译和漏译现象,对非自回归翻译模型的翻译质量具有不利影响。为了缓解该问题,本文提出了一种新的模型RecoverSAT。该模型该译文拆成多个片段 并行生成,在每个片段内部采用自回归生成方式,而段间则采用非自回归方式。进一步的,通过引入动态停止机制和段删除机制,该方法可以有效缓解重复翻译和漏译的问题。 实验结果显示,该方法在获得与传统神经机器翻译模型可比效果的同时,可以获得约4倍的加速。

背景


自回归神经机器翻译(autoregressive neural machine translation,AT,简称自回归翻译)因其领先的翻译质量而获得广泛关注与应用。但此类模型在生成每个目标语言词时(即解码)都依赖于在其之前已经生成的词,因此译文生成过程是串行的,使解码速度成为这类模型的一个重要瓶颈。非自回归神经机器翻译(non-autoregressive neural machine translation,简称非自回归翻译)抛弃了目标语言词间的依赖关系,将逐词生成变为所有词并行生成,显著提升了翻译速度,但也相伴产生了多峰问题(multi-modality problem),通常表现为重复翻译和漏译现象。图1展示了多峰问题的一个示例:

图1:多峰问题示例

对于源语言片段“很多农民”,有多种可行的翻译方式,如“lots of farmers”和“a lot of farmers”,由于非自回归翻译模型抛弃了目标语言词间的依赖关系,导致其生成的译文中,不同位置的词可能源于不同的可行译文。如对于生成译文1,“lots of”源于可行译文1而“of farmers”源于可行译文2。同样的现象在生成译文2中也可以观察到。显然多峰问题对于翻译质量具有不可忽视的负面影响。

在已有的非自回归翻译工作中,一类工作采用多轮解码(iterative decoding)的方法缓解该问题,即每次解码时都将源语言句子和上一轮生成的译文同时作为新一轮解码的输入,具有能够修复生成错误的优点。但该类方法通常需要迭代多次以获得较好的翻译质量,对翻译速度有显著影响。另一类方法则通过在模型中额外引入以自回归方式工作的部件的方式注入目标语言端的依赖关系。但这类方法无法对已经发生的生成错误进行修正。

为了缓解多峰问题,本文提出了一种新的半自回归(semi-autoregressive)翻译模型RecoverSAT。该模型具有三个方面的优点:

(1)为了提升翻译速度,该方法将译文拆分成多个片段,并使片段可以并行生成;

(2)为了更好的捕捉目标语言端依赖关系,在生成每个词时,其不仅依赖于所在片段内已经被生成的词,还依赖于其他片段内已经被生成的词 一方面,我们观察到重复翻译多发现在短片段内,因此在每个片段内部采用自回归方式生成每个词有助于减少重复翻译现象。另一方面,将其他片段已被生成的词纳入考虑,有助于模型判断其他片段是基于何种可行译文选词并相应对本段内将要生成的词进行调整,从而有助于缓解漏译现象。综合以上两方面,我们的模型考虑了更多目标语言端信息,从而能够更好得缓解多峰问题。

(3)为了使模型具备从已发生的重复翻译错误中进行恢复的能力,我们提出了一种段删除机制,使得模型在发现某段翻译的内容已在其他段中被翻译时,可以动态将该段删除,从而可以从错误中恢复。

模型结构


图2:模型结构图

图2展示了RecoverSAT的模型结构。对于编码器(encoder),RecoverSAT沿用了常用的Transformer结构,这里不再赘述。RecoverSAT的主要创新点集中于解码器(decoder)。如图所示,在生成译文时,RecoverSAT将译文拆分成多个片段,每个片段内自左向右逐词生成,而片段间则并行生成。其中“EOS”表示对应的片段已生成完毕,而“DEL”表示相应的片段需要被整体删除。整体过程的概率公式表示如下:


其中x表示源语言句子,y表示译文, 表示第i个片段的第t个词, 表示第i个片段的历史信息,L表示片段长度,K表示片段数目。

为了更好的缓解多峰问题,我们提出了“动态停止”和“段删除”两个机制,其工作原理如下:

动态停止机制:如上所述,与多数已有的非自回归翻译模型不同,我们并不预先指定译文的长度,而是通过让模型动态为每段生成特殊符号“EOS”的方式来让模型自行决定译文的长度。我们称之为动态停止机制。该机制可以从两个方面缓解多峰问题:

1、对于每个片段,其开头几个词的选择可以更加灵活。以图2为例,对于第2个片段(Segment 2),如果模型将其第一个词选为“of”而不是“lots”,那么模型只需在第1个片段(Segment 1)的结尾处多生成出词“lots”即可避免漏译错误。同理,如果第2个片段的第1个词被选择为“are”,那么第1个片段只需不生成“are”即可避免重复翻译错误。


2、如的定义所示,生成每个词时,所有片段中已经生成的词均被作为历史使用,从而使模型可以考虑更多历史信息,从而更易发现多峰问题相关错误并从中恢复。


这里需要指出的是,如何训练模型使其具备上述能力但又保持较好的解码速度是一个很大的挑战。一方面,RecoverSAT的翻译速度与各个片段的最长长度成正比,相应的,我们需要在构造训练数据时尽量将参考译文拆分成长度相等的片段,以鼓励模型生成长度大致相等的片段;另一方面,我们又需要在训练过程中给模型提供充足的具有多峰问题相关错误的训练数据,以使模型可以学习到从相关错误中恢复的能力。为了平衡这两方面的要求,在训练过程中,我们随机决定每条译文是随机拆分成长度不等的片段还是长度相当的片段,并且随着训练的进行,逐渐增加拆分成长度相当的片段的译文比例。

段删除机制:显然动态停止机制并不能消除所有多峰问题相关错误,因此我们引入段删除机制来在已经发生重复翻译错误时从错误中恢复。具体的,当模型发现某一个片段的译文对应的内容已在其他片段中被删除时,模型将生成一个特殊符号“DEL”表示该片段需要被删除。在解码过程完成后,我们将在后处理阶段将对应的片段从译文中删除,以获得最终译文。需要特别指出的是,我们观察到重复翻译现象通常在每段的前几个词处发生,因为此时模型可供参考的历史信息非常有限。因此我们采用预测整段是否删除而非每个词是否该被删除的建模方式以提升模型的简洁性。在训练过程中,我们通过人为插入一些重复片段的方式为模型提供相应的训练数据。

实验效果


为验证模型的有效性,我们在WMT14 En-De、WMT16 En-Ro、IWSLT16 En-De三个数据集、五个翻译方向上进行了实验,相应的实验结果见图3。从实验结果中我们可以看到:

(1)RecoverSAT获得了与自回归翻译模型(Transformer)可比的翻译质量(BLEU值)。特别的,在分段数为2时,翻译质量差距很小但解码速度快2倍以上。而在分段数为10时,BLEU值下降不足5%,而解码速度为自回归翻译模型的4倍。

(2)RecoverSAT在翻译质量上超过了除CMLM以外的所有非自回归翻译模型。而RecoverSAT与CMLM的翻译质量差别很小但RecoverSAT解码速度显著快于CMLM。

(3)随着分段数的增加,RecoverSAT翻译质量有较小的下降而解码速度有显著提升,显示其具有较好的泛化性。

图3:实验效果(BLEU值)
其中RecoverSAT括号中的K表示分段数

图4展示了一个实际例子上的翻译结果。在这个例子上,我们通过要求模型在特定位置生成特定词的方式(绿色标记),探测模型从多峰相关问题恢复的能力。可以看到:

(1)已有的非自回归翻译模型(NAT)生成的译文中有多处重复翻译和漏译,而RecoverSAT生成的译文中相应现象很少。

(2)RecoverSAT具备动态决定片段长度以缓解重复翻译错误的能力(译文B),也具备从漏译错误中恢复的能力(译文C和D)。

(3)RecoverSAT具备发现和删除重复片段的能力(译文D)。

图4:实际翻译质量示例
“Forced Translation”表示我们强制要求模型生成某个特定的词(绿色标记)以观察相应现象。黄色:重复翻译;红色:漏译;灰色:模型预测需要被删除的片段 

结语


为了缓解非自回归翻译中的多峰问题,本文提出一种新型的半自回归翻译模型RecoverSAT。该模型通过将译文拆分成多个片段、片段内用自回归方式生成而片段间用非自回归方式生成的方法在获得解码速度提升的同时保持了较好的翻译质量。进一步的,该方法通过引入动态停止机制和段删除机制,可以进一步缓解多峰问题并具备一定的从多峰问题相关错误中恢复的能力。将本文中的方法与其他用于解决多峰问题的方法进行有机结合以获得更好的翻译质量和解码速度将是非常值得关注的研究方向。

 微信AI 

不描摹技术的酷炫,不依赖拟人的形态,微信AI是什么?是悄无声息却无处不在,是用技术创造更高效率,是更懂你。


微信AI关注语音识别与合成、自然语言处理、计算机视觉、工业级推荐系统等领域,成果对内应用于微信翻译、微信视频号、微信看一看等业务,对外服务王者荣耀、QQ音乐等产品。


登录查看更多
0

相关内容

AAAI 2022:三角分解一致性约束的端到端语音翻译
专知会员服务
8+阅读 · 2022年1月17日
EMNLP 2021 | 学习改写非自回归机器翻译的翻译结果
专知会员服务
14+阅读 · 2021年12月25日
【EACL2021教程】无监督神经机器翻译,125页ppt
专知会员服务
23+阅读 · 2021年11月13日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
专知会员服务
26+阅读 · 2020年9月9日
【IJCAI2020南大】上下文在神经机器翻译中的充分利用
专知会员服务
15+阅读 · 2020年8月17日
ACL 2021 | 难度预测和采样平滑,提高ELECTRA模型的表现!
微软研究院AI头条
0+阅读 · 2021年7月28日
这篇文章会不会火,AI掐指一算就知道了
微信AI
3+阅读 · 2020年10月14日
全文通读到最后的人,不是天才,就是勇士
微信AI
0+阅读 · 2020年5月21日
自然语言处理中注意力机制综述
黑龙江大学自然语言处理实验室
11+阅读 · 2019年2月26日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2010年12月31日
Arxiv
3+阅读 · 2022年4月18日
VIP会员
相关VIP内容
AAAI 2022:三角分解一致性约束的端到端语音翻译
专知会员服务
8+阅读 · 2022年1月17日
EMNLP 2021 | 学习改写非自回归机器翻译的翻译结果
专知会员服务
14+阅读 · 2021年12月25日
【EACL2021教程】无监督神经机器翻译,125页ppt
专知会员服务
23+阅读 · 2021年11月13日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
专知会员服务
26+阅读 · 2020年9月9日
【IJCAI2020南大】上下文在神经机器翻译中的充分利用
专知会员服务
15+阅读 · 2020年8月17日
相关资讯
ACL 2021 | 难度预测和采样平滑,提高ELECTRA模型的表现!
微软研究院AI头条
0+阅读 · 2021年7月28日
这篇文章会不会火,AI掐指一算就知道了
微信AI
3+阅读 · 2020年10月14日
全文通读到最后的人,不是天才,就是勇士
微信AI
0+阅读 · 2020年5月21日
自然语言处理中注意力机制综述
黑龙江大学自然语言处理实验室
11+阅读 · 2019年2月26日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2010年12月31日
Top
微信扫码咨询专知VIP会员