Neural Machine Translation models are brittle to input noise. Current robustness techniques mostly adapt models to existing noisy texts, but these models generally fail when faced with unseen noise and their performance degrades on clean texts. In this paper, we introduce the idea of visual context to improve translation robustness against noisy texts. In addition, we propose a novel error correction training regime by treating error correction as an auxiliary task to further improve robustness. Experiments on English-French and English-German translation show that both multimodality and error correction training are beneficial for model robustness to known and new types of errors, while keeping the quality on clean texts.


翻译:神经机器翻译模型对输入噪音来说是易碎的。 目前的稳健性技术大多使模型适应于现有的吵闹文本,但这些模型在面对隐蔽噪音时通常会失败,其性能在干净文本上会退化。 在本文中,我们引入视觉背景概念,以提高翻译对吵闹文本的稳健性。此外,我们提出一个新的错误纠正培训制度,将错误纠正作为进一步提高稳健性的辅助任务。 英法和英德翻译实验显示,多式联运和错误纠正培训都有利于模型对已知和新类型的错误的稳健性,同时保持干净文本的质量。

0
下载
关闭预览

相关内容

必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
已删除
将门创投
8+阅读 · 2019年1月30日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
20+阅读 · 2020年6月8日
Arxiv
8+阅读 · 2018年5月1日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
5+阅读 · 2018年1月16日
VIP会员
相关VIP内容
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
Top
微信扫码咨询专知VIP会员