人类将可能操控AI?神经网络语言处理工作原理被破解

2017 年 12 月 12 日 新智元





  新智元编译  

作者:刘光明 


【新智元导读】近期,来自麻省理工学院计算机科学人工智能实验室(CSAIL)和卡塔尔计算研究所的研究人员已经通过新的解释技术,来分析神经网络做机器翻译和语音识别的训练过程。




神经网络通过分析大量的训练数据来学习并执行任务,这是近期人工智能领域最令人印象深刻的进展,包括语音识别和自动翻译系统。


然而,在训练过程中,神经网络以甚至其创造者都无法解释的方式来不断调整其内部设置。计算机科学最近的许多工作都聚焦于千方百计的弄清楚神经网络的工作原理。


在最近的几篇论文,来自麻省理工学院计算机科学人工智能实验室(CSAIL)和卡塔尔计算研究所的研究人员已经使用了新开发的解释技术,来分析神经网络做机器翻译和语音识别的训练过程,该新技术已被应用于其他领域。


他们对神经网络的工作原理有了基本认知。例如,这些系统似乎专注于较低级别的任务,如声音识别或部分语音识别,然后再转到更高级别的任务,如转录或语义解释。


但是研究人员也发现了翻译网络处理数据类型的一个惊人的遗漏,他们指出纠正这种遗漏会提高网络的性能。这种改进是适度的,但它指出了对神经网络的分析可能有助于提高人工智能系统的准确性。


 “从历史角度看,在机器翻译里,有一个具有不同层次的金字塔,” CSAIL一位高级研究科学家说。这位科学家在是麻省理工学院电气工程和计算机科学的毕业生,曾参与Yonatan Belinkov项目。”在最低层有文字,表层形式,金字塔的顶层是一种语际表示,在做语法和语义时会达到不同的层次。这是一个非常抽象的概念,意思是你在金字塔中爬得越高,就越容易翻译成一种新的语言,然后你就再往下走。所以Yonata所做的部分工作是找出在神经网络中这种概念的会是什么样的编码。”


近期在国际自然语言处理联合会议上发表了两篇论文。Belinkov是第一作者,Glass是资深作者。另一篇,Belinkov是一个联合作者。


他们都是来自卡塔尔计算研究所的研究人员,包括Lluís Màrquez,Hassan Sajjad,Nadir Durrani,Fahim Dalvi和Stephan Vogel。Belinkov和格拉斯是分析的语音识别系统的唯一作者。这篇文章是Belinkov上周神经信息处理会议上提出的。



分层处理


神经网络之所以得名,是因为它们大致接近人脑的结构。通常,它们被分层,每个层由许多简单的处理单元节点组成,每个节点都连接到上面和下面的层中的几个节点。数据被送入最低层,其节点处理它并将其传递给下一层。层之间的连接具有不同的“权重”,它决定了任何一个节点的输出转化到到下一个节点的计算量是多少。


在训练过程中,节点之间的权重不断调整。在网络被训练后,它的创建者可以确定所有连接的权重,但有成千上万个甚至多个节点,甚至它们之间有更多的连接,推断出这些权重编码的算法几乎是不可能的。

 

麻省理工和卡塔尔计算研究所研究人员的技术包括训练一个神经网络和使用它的每一层的输出,通过个别的培训案例,培养其他的神经网络来执行特定的任务。这使他们能够确定每个层优化的任务是什么。


在语音识别网络的案例中,Belinkov和Glass使用的单个层输出训练系统识别“语音”,区别于口语的发音单元。例如,“T”的发音在“Tea”“Tree”和“But”,是不同的,但语音识别系统已经把他们都用字母“T”转录。事实上,Belinkov和Glass发现,低层次的网络比高层次网络语言识别能力更强。在那里,可能区别是不重要的。


同样的,Glass, Belinkov和他们卡塔尔计算研究所的同事于去年夏天在语言协会年度大会上发布的文章表明,机器翻译网络的低层善于识别词类和形态,比如时态、数字和共轭。



语义理解



但是在新的论文中,他们表明网络的更高层次在语义标注方面更好。Belinkov解释说,一部分语音标签,能认识到“herself”是一个代词,但这个代词的语义的意义,在句子“she bought the book herself”和“she herself bought the book”是不同的。语义标注会分配不同的标签,给这两句话中的“herself“,就像一个机器翻译系统可能在一个给定的目标语言为它们找到不同的翻译。

 

最好的机器翻译系统使用所谓的编码解码模式,和麻省理工和卡塔尔计算研究所研究人员的神经网络一样。在这样的系统中,源语言中的输入经过几个被称为编码器的网络层来产生一个向量,一组数字代表某种输入的语义内容。该向量通过多个网络层的解码器来产生目标语言中的译文。


虽然编码器和解码器在一起训练,但它们可以被认为是独立的网络。研究人员发现,奇怪的是,编码器的低层善于区分形态,但解码器的更高层不是。所以Belinkov和卡塔尔计算研究所研究人员在训练网络时,不仅仅根据翻译的准确性,也根据目标语言中的形态分析来判定性能。从本质上讲,他们迫使解码器更好地区分形态。


使用这种技术,他们培训网络将英语翻译成德语,发现其精度提高3%。这不是一个革命性的进步,但这表明,探寻神经网络的本质可能不仅仅是一项学术活动。




登录查看更多
1

相关内容

卡塔尔计算研究所于2010年由卡塔尔基金会下的教育科学和社会发展基金资助成立,旨在推动卡塔尔、泛阿拉伯地区、乃至世界范围内的计算机科学发展,并为卡塔尔2030国家远景战略服务。研究所的科学家均来自于世界顶级研究学府和科研机构,如卡耐基梅隆大学、普渡大学、滑铁卢大学、爱丁堡大学、UC Berkeley、微软研究院等。
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
【干货书】流畅Python,766页pdf,中英文版
专知会员服务
226+阅读 · 2020年3月22日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
51+阅读 · 2020年2月19日
NLP 与 NLU:从语言理解到语言处理
AI研习社
15+阅读 · 2019年5月29日
多图带你读懂 Transformers 的工作原理
AI研习社
10+阅读 · 2019年3月18日
机器听觉:一、AI在音频处理上的潜力
论智
5+阅读 · 2018年11月25日
人工神经网络真的像神经元一样工作吗?
论智
9+阅读 · 2018年11月15日
SNN,像你的大脑一样工作
中国科学院自动化研究所
80+阅读 · 2018年11月7日
一文读懂神经网络(附PPT、视频)
数据派THU
17+阅读 · 2018年3月25日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
人工神经网络是否模拟了人类大脑?
数说工作室
9+阅读 · 2017年7月19日
A Survey on Edge Intelligence
Arxiv
52+阅读 · 2020年3月26日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
35+阅读 · 2019年11月7日
Arxiv
8+阅读 · 2019年5月20日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Feature Selection Library (MATLAB Toolbox)
Arxiv
7+阅读 · 2018年8月6日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年5月28日
VIP会员
相关资讯
NLP 与 NLU:从语言理解到语言处理
AI研习社
15+阅读 · 2019年5月29日
多图带你读懂 Transformers 的工作原理
AI研习社
10+阅读 · 2019年3月18日
机器听觉:一、AI在音频处理上的潜力
论智
5+阅读 · 2018年11月25日
人工神经网络真的像神经元一样工作吗?
论智
9+阅读 · 2018年11月15日
SNN,像你的大脑一样工作
中国科学院自动化研究所
80+阅读 · 2018年11月7日
一文读懂神经网络(附PPT、视频)
数据派THU
17+阅读 · 2018年3月25日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
人工神经网络是否模拟了人类大脑?
数说工作室
9+阅读 · 2017年7月19日
相关论文
A Survey on Edge Intelligence
Arxiv
52+阅读 · 2020年3月26日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
35+阅读 · 2019年11月7日
Arxiv
8+阅读 · 2019年5月20日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Feature Selection Library (MATLAB Toolbox)
Arxiv
7+阅读 · 2018年8月6日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年5月28日
Top
微信扫码咨询专知VIP会员