人工智能(AI)的几个主要创新(如卷积神经网络,经验回放)是基于关于大脑的发现。然而,基础的大脑研究结果花了很多年才首次得到巩固,并花了更多时间转移到人工智能上。此外,这些发现是在非人类物种中使用侵入性方法得出的。对于人类特有的大脑功能,如理解复杂的语言,没有合适的动物可以作为模型生物,因此,机械性的理解离我们更远。

在这篇论文中,我们提出了一个数据驱动的框架,通过建立人们理解语言的大脑记录和自然语言处理(NLP)计算机系统之间的直接联系来规避这些限制。我们提出的证据表明,这种联系对神经语言学和NLP都有好处。具体来说,这个框架可以利用最近在NLP的神经网络方面取得的成功,来实现对大脑中依赖上下文和任务的科学发现,并且我们提出了第一个证据,表明对人们阅读的大脑活动测量可以用来提高一个流行的深度神经网络语言模型的泛化性能。这些调查还有助于认知建模方面的进展,这些进展可能在语言研究之外还有用。总之,这篇论文涉及多学科的调查,对认知神经科学、神经语言学和自然语言处理做出了贡献。

引言

人脑是一个了不起的信息处理系统,能够从少数例子中学习,在学习新的事实和技能的同时保留以前学到的事实和技能,并理解任何长度、任何语言的文本。长期以来,它一直是人工智能(AI)和机器学习(ML)领域的灵感来源。例如,早期视觉系统中细胞感受野和信息处理层次的发现(Hubel等人,1968年)导致了卷积神经网络的发明(Fukushima等人,1982年),彻底改变了计算机视觉,而发现在海马体中回放先前的经验有助于记忆巩固(McNaughton,1983年)激发了经验回放的发展(McClelland等人,1992年)(也见(Lin,1992年)),在DeepMind的AlphaGo(Silver等人,2016年)首次战胜人类围棋世界冠军后,它已成为深度强化学习的主力。在这些案例中,关于大脑功能的基本发现花了很多年才首次巩固,而要转移到人工智能上则需要更多的时间(例如,视觉系统的发现花了10年才巩固,而要转移到人工智能上又需要10年以上)。此外,这些发现是在非人类物种中使用侵入性方法得出的。对于人类特有的大脑功能,如理解复杂的语言,没有合适的动物可以作为模型生物体,因此,机械性的理解就更遥远了。

在这篇论文中,我们提出了一个数据驱动的框架,通过在大脑和自然语言处理(NLP)计算机系统之间建立直接联系来规避这些限制。我们在图1.1中对这个数据驱动的框架的基础进行了可视化。我们提出的证据表明,这种数据驱动的连接对神经语言学和NLP都有好处。具体来说,我们表明这个框架可以利用最近在NLP的神经网络方面取得的成功,来实现对大脑中依赖语境和任务的科学发现,并提出了第一个证据,表明对人们阅读的大脑活动测量可以用来提高一个流行的深度神经网络语言模型的泛化性能。

图1.1: 我们的数据驱动方法的可视化。我们首先将自然文本,如一本书的一章,逐字逐句地呈现给一个人,同时她的大脑活动被大脑成像设备,如fMRI记录下来。我们将相同的文本作为输入给自然语言处理(NLP)计算机系统,如BERT(Devlin等人,2018)。接下来,我们从NLP系统的特定中间层提取该文本的表征,我们观察由同一文本引起的大脑记录。最后,我们计算这两个文本表征之间的一致性--一个来自NLP系统,一个来自大脑记录。大脑记录和NLP系统之间的一致性是通过学习一个函数f来估计的,该函数预测每个大脑源(如体素、传感器-时间点等)的活动是NLP系统对所呈现文本的表述函数。这个函数通常被建模为一个线性函数,并使用标准的机器学习技术学习。关于这种方法的更多细节,请参考第三章。

NLP系统作为人类语言理解的模型生物体

当阅读 "奖杯不适合放在棕色的手提箱里,因为它太大了 "这个句子时,尽管有一个模棱两可的代词 "它",它既可以指奖杯,也可以指手提箱,但我们还是能理解这个句子的意思(Levesque等人,2012)。我们知道所指的是奖杯。如果这个句子是 "奖杯不适合放在棕色的手提箱里,因为它太小了",那么我们就会推断出所指的是手提箱。大脑是如何处理这些句子并将现实世界的意义赋予它们的?为了解决这个问题,有一些基本的初步问题需要回答,即哪些信息在大脑中的什么地方和什么时候被处理,以了解这些信息是如何在不同的位置和时间点上被聚合的。

利用记录语言处理过程中人脑活动的神经影像设备,神经科学家在回答 "什么"、"哪里 "和 "什么时候 "的问题上取得了进展。例如,研究人员发现,单个单词的含义分布在大脑皮层中,但在不同的人中是一致的(Mitchell, Shinkareva等人, 2008; Wehbe, Murphy等人, 2014; Huth, Heer等人, 2016年),一组被称为 "语言网络 "的大脑区域支持语言理解(Fedorenko, Hsieh等人, 2010; Fedorenko and ThompsonSchill, 2014),以及一个词的意思在第一次阅读后的200到600ms之间被处理(Salmelin, 2007; Skeide等人)。然而,在语言理解过程中,大脑是如何在不同的位置和时间点上汇总信息的,仍然空白。

同时,自然语言处理(NLP)领域创造了一些计算系统,这些系统以特定的方式汇总单词的含义,以执行特定的语言任务,如预测句子中即将出现的单词。然而,目前还不清楚这些计算系统是否真正理解句子的含义,以及NLP系统的 "如何 "与大脑的 "如何 "是否相同。在这篇论文中,我们认为,尽管NLP系统与人脑不同,但神经语言学可以从使用NLP系统作为人脑在语言理解过程中如何聚集信息的模型生物中获益。模型生物体使研究特定的大脑功能更加容易,因为它们允许直接干预,而由于道德或实际原因,在人类身上很难做到这一点。例如,大鼠被用作研究空间表征的神经成分的模型生物,因为它们的探索行为和它们的尺寸,可以在自由行为中进行神经记录(Yartsev,2017)。但是,是什么让一个特定的生物体成为特定功能的好模型?我们认为,一个好的模型生物体要满足三个特性。1)它执行特定的功能,2)它提供了一个比直接在人脑中研究该功能更容易的平台,以及3)模型生物体中的功能可以与人脑中的类似功能相关。

在这篇论文中,我们提供了证据,证明NLP系统满足了大脑中语言理解的良好模型生物的第二和第三属性。第二个属性可以说是NLP系统对神经语言学最重要的好处--能够对NLP系统进行具体干预,并观察这些干预如何影响其与大脑的一致性。就像在动物模型生物体中一样,研究人员可以在NLP系统中消减现有的信息通路或引入新的信息通路。这些干预措施允许研究人员对NLP系统中包含的信息进行因果推断,而这在对真实大脑的非侵入性神经科学研究中是不可能的。在这篇论文中,我们提供了一个使用NLP系统中的干预措施来研究超词义神经基础的研究案例:语言的多词义是超越单个词的意义的。为了测量干预前和干预后NLP系统与大脑的一致性,我们表明我们可以使用编码模型,这些模型被训练来预测大脑记录,作为从NLP系统获得的文本表征的函数。编码模型提供了一种方法,将来自NLP系统的文字表征与人们理解语言的大脑记录联系起来,从而满足了一个好的模型生物体的第三个属性。

大脑引导的NLP系统

一个好的模型生物体的第一个属性是什么?一个好的大脑语言理解模型生物体必须理解语言。一个NLP系统真的能理解语言吗?为了回答这个问题,我们可以研究量化语言理解的不同方法,并观察到NLP系统在其中一些指标上表现良好,但在其他指标上则不然。例如,一个NLP系统非常善于预测句子中即将出现的单词,但可能会错误地得出结论,"我把沉重的桌子放在书上,它就坏了 "这个句子中的 "它 "指的是 "桌子 "而不是 "书"(Trichelair等人,2018),因为它大概已经知道桌子坏了比书坏了更经常出现在上下文中。这种超越词语关联的推理困难是NLP系统目前面临的挑战。同样,如果我们在NLP系统中逐句输入一本书的章节,NLP系统的内部状态就会偏向于最近处理的文本(Goodfellow等人,2016)。越往后的章节,NLP系统的记忆就越差(Khandelwal等人,2018;Dai等人,2019)。这是一个问题,因为理解现实的语言需要我们有时解决长期的依赖关系。评估NLP系统编码长范围语境的能力,以及提高这种能力,是一个活跃的研究领域。

与NLP系统形成鲜明对比的是,一个人在阅读一本书的一章时,会记住该章最开始的信息(例如有助于理解人物之间关系的背景信息)。因此,我们提出的一个关键问题是:我们能否利用我们拥有的唯一能真正理解语言的处理系统--人脑--来评估,甚至可能改进这些NLP系统能够编码的信息?为了探究语言理解过程中人脑中的信息,我们沿用了几十年的神经科学工作,使用脑成像设备(fMRI和MEG)对人们逐字阅读文本时的大脑活动进行采样。然后我们在NLP系统中进行不同的干预,观察其与大脑记录的一致性如何变化。我们观察到,一个特定的干预措施,即强迫NLP系统在汇总所有单词的含义时给予同等的权重,改善了与大脑记录的一致性,也改善了NLP系统在新数据分布上的表现。这是第一个证据,表明人们理解语言的大脑记录可以用来改善流行的神经网络NLP系统的泛化性能。

虽然NLP系统还不能完美地理解语言,但在过去的三年里,它们在语言理解的许多相关指标方面有了明显的改善。重要的是,NLP系统不是一成不变的,未来能够导致对语言的理解更像人类的改进,将导致更好的模型生物体。鼓励在NLP系统中进行更像人类语言理解的未来工作可能会研究显性记忆模块在整合和保持语言信息中的作用,并可能整合来自多种感官模式的信息,如视觉和听觉。

1.1 论文陈述和大纲

这篇论文是围绕着以下论述展开的:在大脑中的语言处理和机器中的语言处理之间建立数据驱动的联系可以改善提升。1)通过计算建模,我们对大脑中语言处理的机械理解;2)通过转移大脑的洞察力,提高自然语言处理模型的泛化性能。

第二章详细介绍了以前的相关神经语言学发现,论文中使用的脑成像记录模式和数据集,以及多个论文章节中通用的NLP系统。

第三章详细介绍了现有的训练编码模型的方法,这些模型被用来建立大脑中的语言和机器中的语言之间的数据驱动的联系,并测量它们的一致性。进一步讨论了编码模型的局限性,特别是在作为复杂表征函数进行训练时,如从NLP系统中获得的表征。最后,它提出了两个新的衡量标准,能够对大脑中的信息处理进行更精确的科学推断,并在两个自然的fMRI数据集中对其进行验证。

第四章为论文的第一个论述提供了支持,通过对NLP系统的干预来研究语言的多词意义的神经基础,这超出了单个词的意义,我们称之为超词意义(Toneva, Mitchell等人, 2020)。我们对NLP系统进行干预,将这种超词义从单个词的意义中分离出来。通过使用fMRI记录,我们发现被认为是处理词汇层面意义的枢纽也保持着超词的意义,这表明词汇和组合语义的共同基底。然而,令人惊讶的是,我们发现超词意义很难在脑电图中检测到。相反,脑电图的记录被最近阅读的单个单词所特有的信息所显著预测。fMRI和MEG结果之间的差异表明,超词意义的处理可能是基于神经机制,与同步细胞发射无关,就像MEG信号一样。

第五章还为计算模型如何能导致大脑中语言的科学发现提供了支持。在这一章中,我们通过预测毫秒级分辨率的脑电活动作为名词语义和任务的函数来研究问题任务对具体名词处理的影响(Toneva, Stretcu等人, 2020)。这项工作提供了第一个预测大脑记录作为观察到的刺激物和问题任务的功能方法。使用我们提出的方法,我们表明,纳入任务语义(即提出的具体问题)大大改善了对脑电图记录的预测,跨参与者。这种改善发生在参与者第一次看到这个词之后的475-550ms,这相当于被认为是一个词的语义处理的结束时间。这些结果表明,只有一个词的语义处理的结束时间是依赖于任务的。

第六章为论文的第二个论述提供支持。在这一章中,我们开发了一种方法,利用先前的神经语言学证据来评估NLP模型的表征中是否存在特定大脑相关信息(Toneva and Wehbe, 2019)。该方法在神经成像设备和NLP模型中向人逐字呈现相同的文本,并测量网络衍生的表征与相关脑区大脑记录的吻合程度。这项工作表明,我们可以使用这种方法和功能磁共振成像捕捉到的大脑活动快照,来揭示4个流行的预训练NLP模型得出的表征中有多少上下文被编码。我们进一步表明,改变一个最先进的预训练模型以更好地预测fMRI记录也大大改善了其对新数据分布的概括性能。这些结果是第一个证据,表明人们阅读的fMRI记录可以用来改善神经网络NLP模型。

1.2 贡献

本论文的贡献可以概括为以下几点。

  • 第三章:我们从概念上分解了两个脑源、实验刺激和所选刺激表征之间共享变异可能的基本关系。

  • 第三章:我们提出了常用方法在区分这些不同关系方面的局限性,并提出了两种可以区分它们的新方法,利用模拟数据和两个自然实验的fMRI数据提供证据。

  • 第四章:我们介绍了一种基于计算模型的新方法,该方法对NLP系统进行干预,以便将整体的意义与部分的意义分开来捕捉。这种方法允许以以前不可能的方式研究大脑中复杂和组成的多词含义。

  • 第四章:我们确定了在脑电图中可检测到的信息类型的潜在限制。虽然高时间成像分辨率是达到理解语言处理的机械水平的关键,但我们的研究结果表明,要检测长距离的语境信息,可能需要使用除MEG以外的其他模式。

  • 第五章:我们提供了第一个可以预测大脑记录的方法,作为观察到的刺激物和问题任务的函数。这很重要,因为它不仅会鼓励神经科学家制定关于问题对刺激物处理的影响的机械性计算假说,而且会使神经科学家通过评估这些假说与大脑记录的吻合程度来检验这些不同假说。

  • 第五章:我们表明,整合了任务和刺激表征的模型比不考虑任务语义的模型具有明显更高的预测性能,并将任务语义的影响主要定位在刺激呈现后475-650ms的时间窗口。

  • 第六章:我们提出了一种解释NLP表征的新方法,并发现转化器的中间层比其他层更善于预测大脑活动,而且转化器-XL的性能不会随着上下文的增加而降低,与其他流行的测试模型'不同。我们发现,在BERT的早期层中用统一的注意力取代预训练的注意力会导致对大脑活动的更好预测。

  • 第六章:我们表明,当BERT被改变以更好地与大脑记录保持一致时(通过在早期层用均匀的注意力取代预训练的注意力),它也能在探测其句法理解的NLP任务中表现得更好(Marvin等人,2018)。这些结果是第一个证据,证明人们阅读的fMRI记录可以用来改善神经网络NLP模型。

成为VIP会员查看完整内容
47

相关内容

脑机接口的英文名称是brain-computer interface,简称BCI,也称作brain-machine interface或direct neural interface。脑机接口(BCI)提供了大脑与计算机或其他外部设备之间的直接通信连接。通过加强或替代人类的工作能力,它们提供了更大的自由度,并在康复、情感计算、机器人、游戏和神经科学等各个领域有潜在的应用。脑机接口是一个多学科交叉形成的研究领域,涉及信息学、神经学、材料学、生物学、医学、心理学、工程学等,是各学科基础理论交叉的集合体。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
《深度学习中神经注意力模型》综述论文
专知会员服务
112+阅读 · 2021年12月15日
专知会员服务
71+阅读 · 2021年7月29日
【Haute-Alsace博士论文】深度学习时序分类,175页pdf
专知会员服务
99+阅读 · 2020年10月4日
人工智能,装在罐子里
学术头条
0+阅读 · 2022年4月13日
AI 真的能够理解人类语言吗?
CSDN
1+阅读 · 2021年12月24日
从0到1,这篇深度学习综述送给你!
机器学习算法与Python学习
27+阅读 · 2018年6月13日
【深度学习】做AI必须要知道的十种深度学习方法
产业智能官
19+阅读 · 2017年12月2日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
Bayesian Causal Inference: A Critical Review
Arxiv
0+阅读 · 2022年6月30日
Arxiv
0+阅读 · 2022年6月27日
Arxiv
22+阅读 · 2019年11月24日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员