机器翻译是指通过计算机将源语⾔句⼦翻译到与之语义等价的⽬标语⾔句 ⼦的过程,是⾃然语⾔处理领域的⼀个重要研究⽅向。神经机器翻译仅使⽤神经 ⽹络就能实现从源语⾔到⽬标语⾔的端到端翻译,其性能逐渐实现了对统计机 器翻译的超越,⽬前已成为机器翻译研究的主流范式。神经机器翻译模型⽬前主 要以⾃回归的⽅式对从源端到⽬标端的翻译概率进⾏建模,每⼀步的译⽂单词 的⽣成都依赖于之前的翻译结果,因此模型只能逐词⽣成译⽂,⽆法充分利⽤硬 件的并⾏计算能⼒,导致模型的解码速度较慢。 ⾮⾃回归神经机器翻译是⼀种新兴的翻译模型,它对⽬标端的概率分布做 了条件独⽴性假设,仅依赖于源端⽂本来⽣成所有译⽂单词,因此能并⾏⽣成整 句译⽂,在解码速度上相较于⾃回归模型有显著优势。然⽽,在实际应⽤中,⾮ ⾃回归模型的性能与⾃回归模型有较⼤差距,具体表现为译⽂中包含较多的重 复词,并会遗漏原⽂中的⼀些信息。造成这种性能差距的主要原因为极⼤似然估 计的训练⽬标与⾮⾃回归模型表达能⼒的不匹配。类似于多数⽣成模型,⾮⾃回 归模型也采⽤极⼤似然估计的⽅式进⾏训练,希望模型能够拟合训练数据的分 布。然⽽,机器翻译任务并不满⾜条件独⽴性假设,同⼀原⽂可能存在多种正确 的译⽂,译⽂的前后词之间存在较强的依赖关系,⽽这种⽬标端依赖恰好是⾮⾃ 回归模型表达能⼒缺失的部分。因此,⾮⾃回归模型在理论上⽆法通过参数估计 拟合机器翻译训练数据的分布,这导致极⼤似然估计⽆法使模型学习到正确的 翻译⽅式。针对这⼀挑战,本⽂不局限于极⼤似然估计的训练范式,从不同⾓度 改进⾮⾃回归神经机器翻译模型的训练⽅法,详细研究内容如下:

  1. 基于强化学习的序列级训练⽅法 针对词级交叉熵损失不准确的问题,本⽂提出基于强化学习的序列级训练 ⽅法,在序列层⾯上训练⾮⾃回归模型。⾮⾃回归模型⽆法通过极⼤似然估计学 习到正确的翻译⽅式,这在实践上表现为基于极⼤似然估计的词级交叉熵损失 独⽴评估每个位置的翻译质量,忽略了译⽂前后间的依赖关系,导致⾮⾃回归 模型关注译⽂的局部正确性⽽忽略了整体翻译质量。对此,⼀个直接的改进思 路是从整体评估模型的输出结果,令⾮⾃回归模型直接优化序列级的评估指标。 本⽂指出了⾮⾃回归模型在训练⽬标上的缺陷,提出了基于强化学习的序列级 训练⽅法,并针对⾮⾃回归模型改进强化学习算法来降低梯度估计的⽅差。实验 结果表明,序列级训练能显著改善⾮⾃回归模型的翻译质量,使其在性能接近⾃ 回归模型的同时仍能保持着相对⾃回归模型⼗倍以上的解码加速。

  2. 基于 n 元组匹配的训练⽅法 针对强化学习⽅法误差较⾼的问题,本⽂提出基于 n 元组匹配来设计的训 练⽬标,能够⾼效、准确地训练⾮⾃回归模型。机器翻译的评估指标主要基于 n 元组的匹配准确率来评估模型的翻译质量。因此,若能直接基于 n 元组的匹配来设计训练⽬标,就能更准确、⾼效地训练⾮⾃回归模型。本⽂将这类训练⽬标形 式化为最⼩化 n 元组词袋间的距离,并针对⾮⾃回归模型设计了优化其⼀阶距 离的⾼效算法。进⼀步地,本⽂将 n 元组匹配⽅法扩展到了基于 CTC 的⾮⾃回 归模型架构中,针对模型只能建模单调对齐的局限性,基于 n 元组匹配建模模型 输出与参考译⽂的⾮单调对齐。在基于 n 元组匹配的训练⽬标优化下,⾮⾃回归 模型能够达到与⾃回归模型相似的性能⽔平。

  3. 基于动态参考译⽂的训练⽅法 针对参考译⽂可能与模型输出不匹配的问题,本⽂提出基于动态参考译⽂ 的训练⽅法,将参考译⽂动态调整为合适的形式来训练模型。在⾮⾃回归模型的 训练中,当模型没有按照参考译⽂的形式输出结果时,交叉熵损失就⽆法正确地 评估模型输出的好坏。本⽂提出了基于动态参考译⽂的解决⽅案,不再使⽤静 态的参考译⽂,⽽是将参考译⽂动态调整为合适的形式来训练模型。动态调整 后的参考译⽂应既能保持⾃⾝的正确性,又与模型的输出相匹配。本⽂将其建 模为对参考译⽂的优化问题,并给出了基于多样蒸馏和改写器的两种优化⽅法。 实验结果表明,动态参考译⽂⽅法能有效地与损失函数⽅⾯的改进结合,使⾮⾃ 回归模型达到甚⾄超越⾃回归模型的翻译质量。

成为VIP会员查看完整内容
18

相关内容

神经机器翻译NMT使用基于神经网络的技术来实现更多上下文精确的翻译,而不是一次翻译一个单词的破碎句子。使用大型人工神经网络计算单词序列的概率,NMT将完整的句子放入一个集成模型中。
【博士论文】时序知识图谱嵌入与推理,178页pdf
专知会员服务
48+阅读 · 1月28日
【NTU博士论文】语言模型自适应迁移学习
专知会员服务
34+阅读 · 2023年12月20日
【博士论文】复杂场景下高精度有向目标检测的研究
专知会员服务
49+阅读 · 2023年12月1日
【博士论文】基于深度学习的单目场景深度估计方法研究
【博士论文】机器学习中的标记增强理论 与应用研究
专知会员服务
29+阅读 · 2021年12月3日
专知会员服务
36+阅读 · 2020年12月22日
专知会员服务
55+阅读 · 2020年12月20日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
专知会员服务
73+阅读 · 2020年12月7日
【MIT博士论文】数据高效强化学习,176页pdf
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2009年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【博士论文】时序知识图谱嵌入与推理,178页pdf
专知会员服务
48+阅读 · 1月28日
【NTU博士论文】语言模型自适应迁移学习
专知会员服务
34+阅读 · 2023年12月20日
【博士论文】复杂场景下高精度有向目标检测的研究
专知会员服务
49+阅读 · 2023年12月1日
【博士论文】基于深度学习的单目场景深度估计方法研究
【博士论文】机器学习中的标记增强理论 与应用研究
专知会员服务
29+阅读 · 2021年12月3日
专知会员服务
36+阅读 · 2020年12月22日
专知会员服务
55+阅读 · 2020年12月20日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
专知会员服务
73+阅读 · 2020年12月7日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员