论文提出了一个文档级NMT框架,对每个句子的本地上下文、源语言和目标语言文档的全局上下文建模,能够处理包含任意数量的句子的文档,比sota baseline高2.1个BLEU score。传统文档级NMT的缺点有:不能完全利用上下文,深层使得模型对环境中的噪声更加敏感;由于深度混合hybrid需要全局文档上下文作为额外的输入,不能翻译单个句子。

新框架在源语句中独立地编码本地上下文,而不是从一开始就将它与全局上下文混在一起,因此当全局上下文很大且有噪声时,这个框架是健壮的。此外,架构将部分生成的文档翻译作为目标全局上下文进行逐句翻译,从而允许本地上下文控制单句文档的翻译过程。

https://www.ijcai.org/Proceedings/2020/0551.pdf

成为VIP会员查看完整内容
15

相关内容

机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
27+阅读 · 2020年9月9日
【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
专知会员服务
89+阅读 · 2020年7月23日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
论文浅尝 | XQA:一个跨语言开放域问答数据集
开放知识图谱
25+阅读 · 2019年9月11日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
微信扫码咨询专知VIP会员