前沿 | 谷歌翻译最新突破,“关注机制”让机器读懂词与词的联系

2017 年 9 月 11 日 大数据文摘 好好学习的

大数据文摘作品,转载要求见文末

作者 | Devin Coldewey

编译 | 白丁,大饼,钱天培


I arrived at the bank after crossing the street.

I arrived at the bank after crossing the river.

拿到这两句话,你会怎么翻译呢?你觉得机器翻译又会怎么处理呢?


机器翻译的缺点


机器翻译虽然是一大利器,但也有一些缺点,比如说:按照“一个字一个字”顺序翻译的机器翻译模型往往会导致严重错误发生。

谷歌在其研究日志(Research blog)中发表了一篇趣味十足的文章,详细分析了这个问题并给出解决方案。

谷歌自然语言处理部门的Jakob Uszkoreit用以下两句话阐释了这个问题:

I arrived at the bank after crossing the street.

过了这条街,就到银行了。

I arrived at the bank after crossing the river.

过了这条河,就到对岸了。

(译者加注:“bank”为多义词,兼有“银行”和“河岸”之意。)

显而易见,“bank”一词在两句话中含义截然不同,但是后台算法很容易处理错 -因为不读完整个句子就无法判定句中“bank”的确切含义。类似这种多义词的现象比比皆是。

如果让我去翻译这句话,我一眼就能看出这两句话中”bank“的区别,但这对翻译系统来说就没那么简单了。如果修改神经网络,使其翻译完一句话后再检查是否有误,有问题的话就再重来一遍,就未免效率太低。

解决方法


为此,谷歌提出了在转换器(Transformer)中建立关注机制(attention mechanism)作为解决方案。

该机制会将单词逐一与句中其他单词进行比对,并检查是否会影响其他词的词义 - 比如,检查说话人是“他”还是“她”,或者像“bank”这样的多义词在句中的确切含义。

在构建译文的过程中,关注机制会把句子中的每个单词与所有其他单词逐一比对。下图在一定程度上说明了这个比对过程的工作机制。

有意思的是,谷歌的方法也让我们有机会一窥其系统的内部逻辑:因为转换器(Transformer)会为每个单词与其他词的关系按对逐一打分,所以你可以看到它认为哪些词是相关的,或至少可能相关的:


(译者注:以上两句话的意思分别是:

那只动物没有穿过街道因为它太累了。

那只动物没有穿过街道因为它太宽了。

“it”这个单词在两句话里面分别指代“动物”和“街道”。)

酷吧?我觉得超酷啊。这是另一种多义词的情形:“it”既可能指代街道或也可能指代动物,而只有读到最后一个单词(“累”或者“宽”)才能明白到底指代的是什么。我们人类自动就能分辨,而机器仍需练习。看起来谷歌的这一系统已经学得相当好了。

最后,如果你觉得“关注机制”这个词眼熟,那你之前一定已经读过了Techcrunch对DeepL的报道。

DeepL是一家机器翻译的初创公司。在报道中公司联合创始人表示他们致力于关注机制,甚至表示谷歌的日志是基于《关注就是一切》(Attention Is All You Need)这篇文章的,谷歌作了一定的修改。

然而,这位联合创始人还认为他们公司的办法非常有效 —— 甚至比谷歌的还好用。

如果你想进一步了解“关注机制”,不妨阅读DeepL发表的论文 Attention Is All You Need(https://arxiv.org/abs/1706.03762)。


原文链接:https://techcrunch.com/2017/08/31/googles-transformer-solves-a-tricky-problem-in-machine-translation/

优惠倒计时!

早鸟4.6折优惠仅剩3天!

教师3.7折优惠仅剩5天!

深度学习系列课程

大咖讲师直播

+

助教辅导答疑

+

云实验室足量GPU

充实高效的学习新体验!

详情见海报↓↓↓


          
            
            
            
             
               
               
               

关于转载

如需转载,请在开篇显著位置注明作者和出处(转自:大数据文摘 | bigdatadigest),并在文章结尾放置大数据文摘醒目二维码。无原创标识文章请按照转载要求编辑,可直接转载,转载后请将转载链接发送给我们;有原创标识文章,请发送【文章名称-待授权公众号名称及ID】给我们申请白名单授权。未经许可的转载以及改编者,我们将依法追究其法律责任。联系邮箱:zz@bigdatadigest.cn。

志愿者介绍


回复志愿者”加入我们

往期精彩文章

点击图片阅读

忽悠神经网络指南:教你如何把深度学习模型骗得七荤八素


登录查看更多
0

相关内容

机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
少标签数据学习,54页ppt
专知会员服务
198+阅读 · 2020年5月22日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
生成对抗网络的最新研究进展
AI科技评论
5+阅读 · 2019年2月6日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
11+阅读 · 2019年1月8日
中文NLP用什么?中文自然语言处理的完整机器处理流程
人工智能头条
61+阅读 · 2018年9月5日
全文翻译Hinton那篇备受关注的Capsule论文
AI研习社
8+阅读 · 2017年10月28日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
11+阅读 · 2018年5月13日
VIP会员
相关VIP内容
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
少标签数据学习,54页ppt
专知会员服务
198+阅读 · 2020年5月22日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
相关资讯
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
生成对抗网络的最新研究进展
AI科技评论
5+阅读 · 2019年2月6日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
11+阅读 · 2019年1月8日
中文NLP用什么?中文自然语言处理的完整机器处理流程
人工智能头条
61+阅读 · 2018年9月5日
全文翻译Hinton那篇备受关注的Capsule论文
AI研习社
8+阅读 · 2017年10月28日
相关论文
Top
微信扫码咨询专知VIP会员