学界 | 既要深度学习又要符号化推理,DeepMind新论文小试牛刀

2018 年 1 月 30 日 AI科技评论 杨晓凡

AI 科技评论按:深度学习的研究者们一直希望给神经网络加上显式的泛化能力,以便让它完成更困难的任务。DeepMind 近期也在这个方向上展开了研究并在 JAIR(Journal of Artificial Intelligence Research)杂志发表了论文,也在博客中以一个踢足球为引子介绍了论文的主要内容。AI 科技评论把博客内容编译如下。

假想你在踢足球。球到了你脚下,然后你打算把球传给没人盯防的前锋。这个看起来简单的动作,其实需要两种不同的思维。

首先,你需要认识到自己脚下有一个足球。这个认知动作需要直觉式的认识思维:你很难详细描述你是如何知道脚下有一个足球的,你只是看到了这个球而已。然后,你打算把球传给某一个前锋,做出这样的决策需要概念思维。这个决策是基于你自己的判断做出的:之所以你打算把球传给这个前锋,是因为没人盯防他。

这两种思维之间的区别让 DeepMind 的研究人员们感到非常有趣,因为这两种不同的思维刚好对应了两种不同的机器学习方法,那就是深度学习和符号程序生成(symbolic program synthesis)。深度学习的核心是直觉式的认知思维,而符号程序生成关注的是概念式的、基于规则的思维。两种系统各有所长,深度学习对有噪声数据的鲁棒性不错,但是难以解释,并且需要很多数据来训练;而符号化的系统解释起来就要简单得多,需要的训练数据也少得多,但是处理有噪声的数据就非常困难。人类的认知过程当然可以无缝衔接这两种不同的思考方式,但是在单个 AI 系统中同样实现这两种思维就不是一件简单的任务了。

DeepMind 的论文《Learning Explanatory Rules from Noisy Data》就研究了这个问题,表明在一个系统中综合直觉感知思考和可解释概念推理是可能的。这篇论文也发表在了 JAIR 杂志上。论文中介绍的系统,「∂ILP」,对噪声鲁棒、能高效地利用数据,而且能够产生可解释的规则。

在论文中,DeepMind 演示了 ∂ILP 在归纳任务中的表现。展示给系统的是成对的数字的图像,系统要做的是输出一个标签(0 或者 1)来表示左侧图中的数字是否小于右侧图中的数字。解决这样的任务就同时需要前面提到的两种思维:识别图像中的具体是哪个数字需要直觉性的认知思维,而足够泛化地理解「小于」关系则需要概念思维。

推理任务示例

对于一个标准的深度学习模型来说(比如带有 MLP 的卷积神经网络),如果给它足够的数据,它也能很快学会解决这个问题。一旦训练结束,给它看从未见过的对象对,它也能正确分类。可是如果想要它能正确地泛化,还是需要每一对数字都有很多个样本用来训练才行。这样的模型很善于做视觉任务的泛化:只要它看过所有测试集里有的每对数字(如下图绿色区域),它就能泛化到新的图像上。但是它做不了符号化思维的泛化:如果有一对数字是它没有见过的(如下图蓝色区域),它就没办法泛化。Gary Marcus 和 Joel Grus 等研究者最近也在文章中指出了这一点,令人深思。

∂ILP 和标准神经网络的不同之处就是在于它能以符号化的方式泛化,而且它也和标准的符号化程序不一样,它可以泛化它的视觉能力。它从样本中学习到的显式程序是可阅读的、可解释的、可验证的。对 ∂ILP 来说,给它样本集中的一部分(和需要的结果),它就能产生一个可以满足它们的程序。它会用梯度下降搜索整个程序空间。如果程序的输出和参考数据中得到的理想输出不一致,系统就会引导程序更新,让输出更符合数据。

图中是 ∂ILP 的训练循环

论文中介绍的系统 ∂ILP 可以符号化地泛化。当它看过「x<y」、「y<z」、「x<z」的样本之后,它就会考虑「<」这个关系有可能是传递性的。当它确认了这个通用规则之后,它就可以把它用在一对以前从来没有见过的数字上。

「<」关系的实验结果总结如图:标准的深度神经网络(蓝色曲线)面对没有见过的数字就无法正确泛化。相比之下,∂ILP(绿色曲线)就能够取得很低的测试错误率,即便它只见过所有数字对中的 40%。这就表明了它可以完成符号化的泛化。

DeepMind 的研究人员们认为,他们的这项成果某种程度上回答了「在深度神经网络中实现符号化泛化有没有可能」这个问题。在未来的研究中,他们还打算把类似 ∂ILP 这样的系统集成到强化学习智能体和更大的深度学习模型中。他们希望赋予智能体新的能力,不仅要能够推理,还要懂得做出即时反应。

论文地址:

http://www.jair.org/media/5714/live-5714-10391-jair.pdf

via DeepMind Blog,AI 科技评论编译。

————— 新人福利 —————

关注AI 科技评论,回复 1 获取

【数百 G 神经网络 / AI / 大数据资源,教程,论文】


—————  AI 科技评论招人了  —————

AI 科技评论期待你的加入,和我们一起见证未来!

现诚招学术编辑、学术兼职、学术外翻

详情请点击招聘启事


—————  给爱学习的你的福利  —————

AI科技评论年度巨献

特辑热卖中

扫码或点击阅读原文立即购买

————————————————————

登录查看更多
1

相关内容

【斯坦福CS520】向量空间中嵌入的知识图谱推理,48页ppt
专知会员服务
101+阅读 · 2020年6月11日
【斯坦福大学-论文】实体上下文关系路径的知识图谱补全
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
理解人类推理的深度学习
论智
17+阅读 · 2018年11月7日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
已删除
将门创投
3+阅读 · 2017年9月12日
揭秘 DeepMind 的关系推理网络
人工智能头条
3+阅读 · 2017年7月7日
Arxiv
92+阅读 · 2020年2月28日
Arxiv
20+阅读 · 2019年11月23日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
VIP会员
相关资讯
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
理解人类推理的深度学习
论智
17+阅读 · 2018年11月7日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
已删除
将门创投
3+阅读 · 2017年9月12日
揭秘 DeepMind 的关系推理网络
人工智能头条
3+阅读 · 2017年7月7日
Top
微信扫码咨询专知VIP会员