ICLR 2020 | 一种高效、表达能力强的可微分归纳逻辑推理模型

2020 年 4 月 24 日 学术头条

深度学习广泛应用于各种研究领域以及生产环境,为人类带来极大的收益和便利。但是现有的深度学习的可解释性不强,人们只知道它的结果是什么,却不知道为什么得出这样一个结果。所以人们逐渐将目光投向模型的可解释性的问题。推理就是其中一个火热的研究方向。


一种应用广泛的推理框架称为归纳逻辑推理程序(Inductive Logic Programming, ILP),它通过规则的硬匹配以及遍历的搜索流程去逐步搜索出满足条件的逻辑范式,但是效率太低,表达能力差,而且对噪音数据的容忍性小。后来一些工作提出了可微分的 ILP 模型,去利用神经网络的学习能力自主的去学到一些泛化性较强的逻辑范式,但是大多模型只能学出一阶逻辑谓词的线性组合范式,表达能力也十分有限,而且基于具体的数据,导致泛化性能不理想。


本文提出一种高效的基于神经网络的归纳逻辑学习模型(Neural Logic Inductive Learning, NLIL),它首先将逻辑谓词转换为一种谓词操作,进而将所有的中间变量转化为首尾实体的谓词操作表示,而这样的首尾变量在具体实现时可用随机初始化的向量表示,这样就摆脱了数据依赖;随后这样一个个谓词操作组成了逻辑范式的原始表达单位,这样就极大的拓展了逻辑谓词的表达能力,从只能表达链式的逻辑规则拓展到树形,以及规则之间的合取模式。



接下来,NLIL 模型又将一个个原始表达单位使用逻辑连接词组合起来(与,或,非),这样又进一步的扩展了生成的逻辑范式的表达能力。



在实现上,NLIL 模型使用了分层的 transformer 模型去高效的计算中间的待学习参数,包括逻辑谓词的向量以及相应的注意力机制的参数。


在实验设置上,本文首先以知识图谱补全任务为背景,在三个知识图谱(ES,FB15K-237 以及 WN18)上对 NLIL 模型的效果和效率都做了细致的评估:



从表中可以看出,NLIL 模型在效果和效率上都明显的好于相关的 baseline。


同时,本文还使用了视觉领域的数据,以物体检测任务作为背景,将图片上的物体之间的关系抽象成小的知识图谱。



从实验结果可以看出,虽然基于丰富标签数据的监督学习方法达到了比较好的效果,但是 NLIL 仅仅利用稀疏的(0/1)标签就能达到匹敌的效果,甚至显著优于一种监督模型 baseline 的效果,进一步体现出了模型的有效性。


近期精彩集锦(点击蓝色字体跳转阅读):

公众号对话框回复“2020科技趋势”,获取《2020科技趋势报告》完整版PDF!

公众号对话框回复“AI女神”,获取《人工智能全球最具影响力女性学者报告》完整版

公众号对话框回复“AI10”,获取《浅谈人工智能下一个十年》主题演讲PPT!

公众号对话框回复“GNN”,获取《图神经网络及认知推理》主题演讲PPT!

公众号对话框回复“AI指数”,获取《2019人工智能指数报告》完整版PDF!

公众号对话框回复“3D视觉”,获取《3D视觉技术白皮书》完整版PDF!



点击阅读原文,一键直达 ICLR 2020 专题!

登录查看更多
1

相关内容

归纳逻辑程序设计(ILP)是机器学习的一个分支,它依赖于逻辑程序作为一种统一的表示语言来表达例子、背景知识和假设。基于一阶逻辑的ILP具有很强的表示形式,为多关系学习和数据挖掘提供了一种很好的方法。International Conference on Inductive Logic Programming系列始于1991年,是学习结构化或半结构化关系数据的首要国际论坛。最初专注于逻辑程序的归纳,多年来,它大大扩展了研究范围,并欢迎在逻辑学习、多关系数据挖掘、统计关系学习、图形和树挖掘等各个方面作出贡献,学习其他(非命题)基于逻辑的知识表示框架,探索统计学习和其他概率方法的交叉点。官网链接:https://ilp2019.org/
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
CMU博士论文:可微优化机器学习建模
专知会员服务
58+阅读 · 2019年10月26日
论文浅尝 | 一种用于多关系问答的可解释推理网络
开放知识图谱
18+阅读 · 2019年5月21日
论文浅尝 | 用可微的逻辑规则学习完成知识库推理
开放知识图谱
14+阅读 · 2018年7月5日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
论文浅尝 | 变分知识图谱推理:在KG中引入变分推理框架
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
Symbolic Priors for RNN-based Semantic Parsing
Arxiv
3+阅读 · 2018年9月20日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
10+阅读 · 2018年4月19日
Arxiv
15+阅读 · 2018年4月5日
Arxiv
5+阅读 · 2018年2月26日
VIP会员
相关资讯
相关论文
Top
微信扫码咨询专知VIP会员