谷歌大脑最新技术:将神经网络提炼成软决策树!

2017 年 11 月 30 日 全球人工智能


——免费加入AI技术专家社群>>

——免费加入AI高管投资者群>>

——日薪5k-10k招兼职AI讲师>>

--全国招募1000名AI推广大使>>

经实践证明,深度神经网络是执行分类任务的一种非常有效的方法。当输入数据是高维度,输入输出之间关系异常复杂,标注训练样本数量非常大的时候,深度神经网络的性能表现是非常好的。但是很难解释为什么学习网络在一个特定的测试用例做出特定的分类决策。这主要是由于它们对于分布式分层表示的依赖。如果我们能够充分利用从神经网络所获得的知识,并在一个依赖分层决策的模型中表达相同的知识,那么解释一个特定的决策将会容易得多。我们描述了一种使用已训练的神经网络创建一种软决策树的方法,该方法的泛化效果要比直接从训练数据中得以学习要好得多。

深度神经网络的优秀泛化能力取决于它们在隐藏层中分布式表示的使用,但这些表示难以理解。对于第一个隐藏层,我们可以理解是什么原因导致了一个单元的激活,而对于最后一个隐藏层,我们可以理解激活一个单元所产生的效果,但是对于其他隐藏层,理解一个特征激活的产生原因和造成的影响要困难得多,尤其是就输入和输出变量这些有意义的变量而言。与此同时,隐藏层中的单元将输入向量的表示分解为一组特征激活,通过这种方式,激活特征的组合效果能够在下一隐藏层中产生适当的分布式表示。这使得我们很难独立性地理解任何特定特征激活的函数作用,因为它的边际效应依赖于同一层中所有其他单元的影响。

这个图显示了一个软二进制决策树,其中有一个内部节点和两个叶节点。

深度网络通过对训练数据的输入和输出之间关系中的大量弱统计规律进行建模从而做出可靠的决策,基于这一事实,上述困难进一步加深,而且,神经网络中没有任何东西可以从训练集的抽样特性所产生的伪规律中区分这些弱规律,即数据的真实属性。面对所有这些困难,放弃理解深度神经网络是如何通过理解单一隐藏单元所作所为来进行一个分类决策的想法,似乎是明智的。

相比之下,决策树是如何进行任意特定的分类就很容易解释了,因为这取决于一个相对较短的决策序列,且每个决策都直接基于输入数据。然而,决策树通常不会像神经网络那样泛化。与神经网络中的隐藏单元不同的是,决策树较低级别的典型节点仅被一小部分训练数据所使用,因此决策树的较低部分倾向于过度拟合,除非与树的深度相比,训练集的大小大的程度能够呈现出指数级。

这是一个在MNIST上进行训练的深度为4的软决策树的可视化图。内部节点的图像是已学习过的过滤器,而叶部的图像是覆盖所有类的学习概率分布的可视化。而最后对每一个叶部的,以及对每条边缘的可能分类都已有注释。如果我们以最右边的内部结点为例,可以看到,在树的那个层级上,潜在的分类只有3或8,因此,已学习的过滤器只是简单地学习该如何区分这两个数字。结果是一个在寻找这个两个区域存在的过滤器,会连接到3的末端,从而生成8。

我们提出了一种全新的解决泛化和可解释性之间矛盾的方法。我们不是试图了解深度神经网络是如何做出决策的,而是使用深度神经网络来训练一个决策树,它会对神经网络所发现的输入输出函数进行模仿,但是以一种完全不同的方式运行。如果有大量未标注的数据,则可以使用神经网络来创建一个更大的标注数据集用以训练决策树,从而克服决策树的统计无效性问题。即使未标注的数据不可用,也有可能利用生成建模方面所取得的最新进展,从一个类似数据分布的分布中生成合成的未标注数据。在不使用未标注的数据的情况下,我们可以通过使用一种叫做提炼(distillation)的技术以及一种能够做软决策的决策,将神经网络的泛化能力迁移到决策树中。

这是一个在Connect4数据集上进行训练的软决策树的前两层的可视化视图。通过检查学习过滤器,我们可以看到,该游戏可以分为两个不同的子类型游戏,其中一个游戏中,玩家已经把金币放在板的边缘,而另一个游戏中,玩家将金币放置在板的中心。

在测试期间,我们使用决策树作为我们的模型。它的执行效果可能会比神经网络稍微差一点,但它通常会快得多,而且现在我们有了一个模型,可以直接对其决策进行解释和参与其中。现在,我们首先对我们所使用的决策树的类型进行描述。我们之所以做出这个选择是为了便于将从深度神经网络获得的知识简化到决策树中。

我们已经描述了一种使用已训练的神经网络,以软决策树的形式创建一个更具可解释性的模型的方法,其中,决策树是通过随机梯度下降进行训练的,利用神经网络的预测以便提供更多的信息目标。软决策树使用已学习的过滤器做出一个基于输入样本的分层决策,最终选择一个特定的覆盖所有类的静态概率分布作为其输出。这种软决策树的泛化能力要比直接在数据上进行训练好得多,但性能表现要比用来提供对其进行训练的软目标的神经网络差得多。因此,如果能够解释一个模型为什么要以特定方式对特定测试用例进行分类是至关重要的话,那么我们就可以使用软决策树,但是,如果我们使用深度神经网络来改进这个具有可解释性模型的训练性能的话,是非常有价值的。

原文:https://arxiv.org/pdf/1711.09784.pdf


热门文章推荐

招聘|AI学院长期招聘AI课程讲师(兼职):日薪5k-10k

浙大才女:用人耳听不到的超声波(攻击)控制语音助手!

Science:最新发现哈希可能是大脑的通用计算原理!

厉害|波士顿动力新版人形机器人Atlas,后空翻很完美!

吴恩达:AI论文已经够多了,赶紧“搞点事”吧!

厉害了!吉利宣布收购飞行汽车公司Terrafugia !

周志华:实验表明gcForest是最好的非深度神经网络方法

黑科技|Adobe出图象技术神器!视频也可以PS了!!

史上第一个被授予公民身份的机器人索菲亚和人对答如流!

浙大90后女黑客在GeekPwn2017上秒破人脸识别系统!

周志华点评AlphaGo Zero:这6大特点非常值得注意!

登录查看更多
0

相关内容

【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
151+阅读 · 2020年6月27日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
【新书册】贝叶斯神经网络,41页pdf
专知会员服务
177+阅读 · 2020年6月3日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
深度学习算法与架构回顾
专知会员服务
80+阅读 · 2019年10月20日
吴恩达团队:神经网络如何正确初始化?
AI100
10+阅读 · 2019年5月15日
L2正则化视角下的对抗样本
极市平台
7+阅读 · 2018年7月13日
决策树
Datartisan数据工匠
4+阅读 · 2018年4月19日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
一文帮你理解什么是深层置信网络(DBN)
机器学习、深度学习 知识点总结及面试题
全球人工智能
17+阅读 · 2018年1月4日
超级干货 :一文读懂集成学习(附学习资源)
数据分析
9+阅读 · 2017年10月30日
机器学习(17)之集成学习原理总结
机器学习算法与Python学习
19+阅读 · 2017年9月16日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
Arxiv
53+阅读 · 2018年12月11日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
8+阅读 · 2018年1月25日
Arxiv
3+阅读 · 2017年7月6日
VIP会员
相关VIP内容
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
151+阅读 · 2020年6月27日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
【新书册】贝叶斯神经网络,41页pdf
专知会员服务
177+阅读 · 2020年6月3日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
深度学习算法与架构回顾
专知会员服务
80+阅读 · 2019年10月20日
相关资讯
吴恩达团队:神经网络如何正确初始化?
AI100
10+阅读 · 2019年5月15日
L2正则化视角下的对抗样本
极市平台
7+阅读 · 2018年7月13日
决策树
Datartisan数据工匠
4+阅读 · 2018年4月19日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
一文帮你理解什么是深层置信网络(DBN)
机器学习、深度学习 知识点总结及面试题
全球人工智能
17+阅读 · 2018年1月4日
超级干货 :一文读懂集成学习(附学习资源)
数据分析
9+阅读 · 2017年10月30日
机器学习(17)之集成学习原理总结
机器学习算法与Python学习
19+阅读 · 2017年9月16日
Top
微信扫码咨询专知VIP会员