摘要

联结主义认知科学的一个主要目标是提供技术设备来模拟在类脑系统中实现的认知过程。从经典认知理论的结构--离散符号的字母表以及对这些原始符号的代数运算--可以推导出被Fodor和Pylyshyn等人归结为 "高阶认知"的关键属性--系统性、生产力和组成性。这一事实导致该类型的理论成为认知科学的持久主干。联结主义网络与这些经典系统的不同之处不仅在于它们是在实数中实现的,而前者是在离散集上操作的,而且还在于它们可以表示那些不能被分解为原始符号的代数组合的系统状态,从形式上看,这些原始符号是非组合性的。

这篇论文发展、研究和评估了一系列跨越这一鸿沟的模型。矢量符号架构(VSAs)传统中以认知为导向的联结主义模型提供了一个框架,通过这个框架,神经网络模型可以整合Fodor和Pylyshyn的见解,以及认知理论的相应架构。基于和谐最大化(Harmony Maximization)[Smolensky and Legendre, 2006],可调整这些结构化的表征以满足所学到的约束。

我们基于使用张量积表示(TPR)和VSA提出了三个模型,将它们放在一个通用的正式框架中,然后将它们应用于知识库完成:存储大规模事实清单的任务(例如 WordNet、 Freebase、Wikidata)表示,允许通过不精确的推断来扩展这些数据库。在典型的方法中,通过采用图元素(实体和关系)的静态向量表示并将它们系统地组合以获得分数来组合地获得图表示。前两个模型将 VSA 的组合操作与基于 Harmonic Grammar [Smolensky 和 ​​Legendre,2006] 的上下文调制过程相结合。 第三个模型研究了这样一个命题:TPR中隐含的空间结构--空间方向的数量等于张量的阶数--可以作为图表示设置中出现的三线性张量编码特征的组织原则。我们显示,每个模型都在知识库完成方面达到了先进水平,我们还探讨了表征的质量。

第一章 简介

认知科学领域的一个标志是将认知能力作为系统的概念,作为在符号领域运作以产生行为的计算程序。在这一传统中,表征通常是离散的,而与之相反的是,出现了大量的神经模型来模拟和执行认知任务,通常是在应用环境中。在某种程度上,这两种观点有实质性的重叠,尽管随着时间的推移,随着后续模型的复杂性和建立模型所涉及的功能的明显增加,这种联系变得更加遥远。

Fodor和Pylyshyn FodorPylyshyn1988年很好地总结了经典类型的认知模型的含义,即那些由离散符号和组合它们的代数规则组成的模型。这样的模型在没有额外规定的情况下,为 "高级认知 "的三个关键属性提供了解释--指的是人类所表现出来的认知。认知是生产性的,因为在某些领域但不是所有领域,存在着离散的无限性[von Humboldt, 1999]。认知是系统性的,因为认知表征之间存在着句法联系,而这些表征中出现了哪些成分。例如,系统性说,如果玛丽爱凯文是一个句子,那么凯文爱玛丽也是一个表达。换句话说,在语法的操作下,存在着字母表的代数封闭。鉴于语法和原始符号,人们可以得到组合系统所允许的所有成分的重组。最后,认知是有成分的(在他们看来,这一属性可能是系统性的一个子现象),因为认知表征之间存在着语义联系,这取决于出现在其中的成分集。例如,从猫有爪子和豹子是猫的事实中,我们可以推断出豹子有爪子,我们可以通过以系统的方式重新排列两个前提中出现的元素来推导出这种关系。

作为一个初步的特征描述,这是一个好的开始。它抓住了认知的一些基本特征,这些特征可以被看作是一个认知理论应该满足的一系列基准。然而,他们超越了这一点,猜想任何满足 "基准 "的认知理论都必然与这些系统同构,这意味着认知,无论你是用页面上的点来表达它,并将其解析为离散的字母,还是用数字在神经元阵列上形成图案,基本上都是符号计算,只是数据格式有所改变。这就产生了两个问题。标准的符号运算如何能在我们在大脑中发现的那种机制中实现?这是实现主义的问题。第二,是否有专门的认知现象需要与经典演绎系统分开的结构?或者说,相对于现有的替代方案而言,用经典理论来表达的现象要麻烦得多?这就是符号描述性问题。哪些东西是符号系统无法轻易捕捉的?有一些明显的例子表明,数字理论比其他理论更容易表达的现象--比如相似性关系、类比推理、解释原型效应等等。这些都需要非常繁琐的规则系统来表达。

这篇论文研究并应用了一系列模型,这些模型在计算的符号层面和其神经、数字对应物之间强制执行某些透明度要求。最优化理论和谐波语法[Prince and Smolensky, 2004, Smolensky and Legendre, 2006]为这些模型的表示格式(各种张量积表示)和计算程序(结构组装和结构优化)提供了基础。在神经网络的背景下,我们将符号与结构作用的关联过程称为绑定。在开发了一个分析框架之后,我们将这些模型适合于知识库表示的任务,在基准上对它们进行评估,并展示了最先进的性能。

第二章为分析张量积表示/TPRs[Smolensky, 1990]和全息缩减表示/HRRs[Plate, 1995]提供了一个通用框架--"填充物-角色绑定问题"[Fodor和Pylyshyn, 1988]的经典解决方案,其中每一种都出现在知识库完成中,例如[Lacroix等人, 2018a, Nickel等人, 2016, Vashishth等人,2020]。这些方法,以及其他许多方法,都符合更广泛的多线绑定的范畴--特别是双线绑定--其中符号的数字表示是用多线图绑定在一起。我们证明了一些定理,这些定理不仅统一了这些表征格式,而且还显示了在某种约束条件下它们是结构表征的最佳意义,同时还证明了像HRR这样的著名模型与任意双线性图的等价性,直到一定的描述水平为止。本章丰富了围绕实施问题的传统答案:组合系统如何以及如何在神经网络中实现?

第三章给出了所实施模型的第二个计算特征的理论背景和历史回顾:通过和谐最大化进行优化,其中神经网络被设计为优化内部和谐函数,以计算满足结构约束的表征。我们展示了如何将某些结构补全/结构校正问题重塑为数值优化问题,为后续模型提供了基础。

第四章在一个模型中实现了和谐语法的原则--梯度图--它将知识库条目的组合表示与基于以和谐函数形式编码的知识约束的优化程序结合起来。我们问:使用组合函数从离散表征中组装起来的知识图谱表征,是否可以用谐音最大化程序来增强?在该模型中,知识库的结构化表征根据学习到的语义约束进行优化,导致成分作为结构中出现的其他元素的函数而被调整。其中描述的机制为语言现象提供了一个概念性的解决方案,如共认和胁迫(见第4.2.3节),并与符号描述性问题有关:什么现象可以在数字系统中比符号系统更优雅地实现?

在第五章中,我们使用第1章和第2章中开发的所有原则来研究知识图谱的表示,开发了和谐记忆网络,通过使用双线性映射的符号成分的成对绑定之和来构建结构,以及表示优化程序。除了提供对第1章中规定的绑定方法的经验性能的洞察力外,该模型还具有一些实用的优点,包括由于该模型可以立即部署而无需重新培训,因为知识库中的新事实增加了。

第六章开发了一个基于张量积表征的模型,该模型新颖地提出了TPR中隐含的体积结构--坐标为矢量成分的3元组--是否可以作为知识表征的组织原则来使用。我们使用一个空间注意力 "探照灯 "来吸引人们注意TPR中与特定查询背景相关的特征。我们表明,改变3维张量中的注意焦点,提供了一种从知识条目的多线表示中选择特征的动态方法--这种模型特征通常是先验的。它也提高了基准的性能。

第七章提供了一个总结。

成为VIP会员查看完整内容
19

相关内容

知识图谱(Knowledge Graph),在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。 知识图谱是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。它能为学科研究提供切实的、有价值的参考。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【迪肯大学博士论文】深度神经网络视觉推理
专知会员服务
44+阅读 · 2022年10月3日
【CMU博士论文】多视图上下文理解的知识增强表示学习
专知会员服务
34+阅读 · 2022年8月11日
【博士论文】多任务学习视觉场景理解,140页pdf
专知会员服务
89+阅读 · 2022年4月5日
最新《图神经网络知识图谱补全》综述论文
专知会员服务
155+阅读 · 2020年7月29日
知识图谱嵌入(KGE):方法和应用的综述
AI科技评论
122+阅读 · 2019年8月26日
论文浅尝 | GraphIE:基于图的信息抽取框架
开放知识图谱
17+阅读 · 2019年6月2日
论文浅尝 | 基于知识图谱的子图匹配回答自然语言问题
开放知识图谱
27+阅读 · 2018年5月17日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
29+阅读 · 2018年4月6日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员