学界 | 从可视化到新模型:纵览深度学习的视觉可解释性

2018 年 3 月 2 日 机器之心

选自arXiv

作者:张拳石、朱松纯

机器之心编译

参与:乾树、李泽南


在本篇论文中,来自 UCLA 的研究人员就目前有关理解神经网络表征和用可解释/分离式表征学习神经网络的研究进行了一次调查。


本文将研究范围圈定到以下六个研究方向:


  • 网络中间层的 CNN 特征可视化。这些方法主要是合成图像,使预训练的 CNN 中的给定神经元的得分最大化,或者用卷积层的 feature maps 反推出输入图。详细内容请看第二节。

  • CNN 表征的诊断。相关的研究涉及为不同的物体类别诊断 CNN 的特征空间,或揭露卷积层的潜在的表征缺陷。详细内容见第三节。

  • 「模式混合」的分离式表征编码在 CNN 的每个滤波器中。这方面的研究主要用于解卷积层的复合表征以及网络表征可视化。详细内容见第四节。

  • 构建可解释的模型。我们在第五节讨论了可解释的 CNN 模型 [Zhang et al., 2017c],胶囊网络 capsule network)[Sabour et al., 2017],可解释的 R-CNNs [Wu et al., 2017],以及 InfoGAN [Chen et al., 2016]。

  • 通过人机交互进行语义级的由中到尾的学习。CNN 表征的正确的语义解可以进一步实现弱监督下的神经网络的「由中到尾」学习。第七节介绍了一些通过人机交互来学习新模型的方法 [Zhang et al., 2017b] 以及通过有限的人机交互实现积极有效的问答游戏 [Zhang et al., 2017a]。


综上,CNN 表征可视化是探讨网络表征的最直接的方法。网络可视化还为许多诊断 CNN 表征的方法提供了技术基础。预训练的 CNN 的特征的分离式表征以及对可解释的网络表征的学习给最先进的算法带来了更大的挑战。


论文:Visual Interpretability for Deep Learning: a Survey


论文地址:https://arxiv.org/abs/1802.00614


摘要:本篇论文回顾了目前有关理解神经网络表征和用可解释/分离式中间层表征学习神经网络的新兴方向的研究。尽管深度神经网络在不同的任务中取得了不俗的表现,但是它的可解释性一直是深度神经网络的阿克琉斯之踵。当前,深度神经网络获得了很高的鉴别力,同时它也想黑匣子一样难以解释。我们相信良好的模型可解释性或许会帮助研究人员突破深度学习的瓶颈,例如,从很少的注释中学习,通过人机交互进行语义级别的学习,以及 debug 网络的语义表征。在本文中,我们重点关注卷积神经网络(CNN),并重新审视 CNN 表征的可视化,预训练 CNN 表征的诊断方法,预训练 CNN 表征的分离方法,CNN 的分离式表征学习,以及基于模型可解释性的从中到尾的学习。最后,我们将探讨可解释的人工智能的发展趋势。


2 CNN 表征的可视化


将 CNN 滤波器可视化是探索隐藏在神经元内的视觉模式的最直接方式。网络可视化已经有了各种各样的可视化方法。


  • 首先,基于梯度的方法是网络可视化的主流方法 [Zeiler and Fergus, 2014; Mahendran and Vedaldi, 2015; Simonyan et al., 2013; Springenberg et al., 2015]。

  • 其次,上卷积网络 [Dosovitskiy and Brox, 2016] 是另一种典型 CNN 表征可视化技术。


3 CNN 表征的诊断方法


一些方法超出了 CNN 的可视化和 CNN 表示诊断的范畴,以获得对 CNN 中编码的特征的启发式理解。我们将所有相关研究大致分为以下五个方面。


  • 第一个研究方向是从全局角度分析 CNN 特征。

  • 第二个研究方向是提取通过网络直接输出为标签/属性的图像区域,以解释标签/属性的 CNN 表征。

  • CNN 特征空间中易受影响点的估计也是网络表征诊断的热门方向。

  • 第四个研究方向是基于网络特征空间的分析来细化网络表征。


图 1 :CNN 中的偏置的表征 [Zhang et al., 2018b]


4 将 CNN 表征解构成说明图和决策树


图 2 :不同的输入图像获得的滤波器的 Feature maps [Zhang et al., 2018a]。为了可视化 feature map,该方法将 feature map 中激活单元的感受野映射到图像平面。



图 3 :说明图 [Zhang et al., 2018a]。说明图表示隐藏在 CNN 的卷积层中的知识层次。预训练的 CNN 中的每个滤波器可以由对象的不同部分得到。


图 5:模式热点图 [Zhang et al., 2018a]。热点图将具有最高推断得分的说明图的第 L 层中排名前 50%的模式的空间分布可视化。


图 7:语义级 CNN 预测解释的决策树 [Zhang et al., 2018c]。CNN 学习在顶层的卷积层中运用分离式表征进行目标分类,其中每个过滤器代表一个特定的对象部分。决策树以由粗到精的方式编码隐藏在 CNN 全连接层内的各种决策模式。给定一张输入图像,决策树推断出一个解析树(红线)来定量分析 CNN 预测的基本原理,即物体的哪些部分(或滤波器)用于预测以及该部分(或滤波器)对预测有多大贡献。



5 用可解释/分离式表征学习神经网络


图 10:上层卷积层的可解释滤波器的可视化图 [Zhang et al., 2017c]。我们使用 [Zhou et al., 2015] 来估计 feature map 中激活感受野的图像分辨率以可视化过滤器的语义信息。可解释的 CNN 通常在其顶部的卷积层中对动物的头部模式进行编码以便于分类。


6 网络可解释性的评估标准


图 13:与或图在预训练的 CNN 上衍生为语义分支 [Zhang et al., 2017a]。AOG 将特定的 CNN 单元与某些图像区域相关联。红线表示解析图。


7 由中到尾学习的网络可解释性


图 14:QA 过程的图示 [Zhang et al., 2017a]。(上)该方法选择不可解释的对象进行分类。(下)每个目标对象的问题。



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:editor@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

登录查看更多
3

相关内容

在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
深度学习视频中多目标跟踪:论文综述
专知会员服务
92+阅读 · 2019年10月13日
【学界】CVPR 2019 论文大盘点—目标检测篇
GAN生成式对抗网络
9+阅读 · 2019年7月1日
神经网络可解释性对具体应用的推动
专知
8+阅读 · 2018年6月8日
深度全解卷积神经网络(附论文)
数据派THU
6+阅读 · 2018年5月4日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
斯坦福完全可解释深度神经网络:你需要用决策树搞点事
中国人工智能学会
4+阅读 · 2018年1月10日
学界 | NCSU&阿里巴巴论文:可解释的R-CNN
机器之心
6+阅读 · 2017年11月27日
【深度】Deep Visualization:可视化并理解CNN
专知
10+阅读 · 2017年9月30日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关资讯
【学界】CVPR 2019 论文大盘点—目标检测篇
GAN生成式对抗网络
9+阅读 · 2019年7月1日
神经网络可解释性对具体应用的推动
专知
8+阅读 · 2018年6月8日
深度全解卷积神经网络(附论文)
数据派THU
6+阅读 · 2018年5月4日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
斯坦福完全可解释深度神经网络:你需要用决策树搞点事
中国人工智能学会
4+阅读 · 2018年1月10日
学界 | NCSU&阿里巴巴论文:可解释的R-CNN
机器之心
6+阅读 · 2017年11月27日
【深度】Deep Visualization:可视化并理解CNN
专知
10+阅读 · 2017年9月30日
Top
微信扫码咨询专知VIP会员