We present a simple yet highly generalizable method for explaining interacting parts within a neural network's reasoning process. First, we design an algorithm based on cross derivatives for computing statistical interaction effects between individual features, which is generalized to both 2-way and higher-order (3-way or more) interactions. We present results side by side with a weight-based attribution technique, corroborating that cross derivatives are a superior metric for both 2-way and higher-order interaction detection. Moreover, we extend the use of cross derivatives as an explanatory device in neural networks to the computer vision setting by expanding Grad-CAM, a popular gradient-based explanatory tool for CNNs, to the higher order. While Grad-CAM can only explain the importance of individual objects in images, our method, which we call Taylor-CAM, can explain a neural network's relational reasoning across multiple objects. We show the success of our explanations both qualitatively and quantitatively, including with a user study. We will release all code as a tool package to facilitate explainable deep learning.


翻译:在神经网络的推理过程中,我们提出了一个简单而非常普遍的方法来解释互动部分。首先,我们设计一种基于交叉衍生物的算法,用于计算各个特性之间的统计互动效应,这种算法普遍适用于双向和更高顺序(3个或更多)的相互作用。我们用一种基于重量的归属技术,同时提出结果,证实交叉衍生物是双向和更高层次互动检测的优劣衡量标准。此外,我们还将跨衍生物作为神经网络解释装置的使用扩大到计算机视野设置,将Grad-CAM(一个流行的CNN的梯度解释工具)扩大到更高层次。虽然Grad-CAM只能解释图像中单个物体的重要性,但我们称之为Taylor-CAM(Taylor-CAM)的方法可以解释一个神经网络在多个物体上的关系推理。我们用质量和数量两方面的解释都取得了成功,包括用户研究。我们将发布所有代码作为工具包,以便于解释深层次学习。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
【图与几何深度学习】Graph and geometric deep learning,49页ppt
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年6月21日
Arxiv
3+阅读 · 2018年2月20日
Arxiv
6+阅读 · 2018年1月11日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Arxiv
14+阅读 · 2020年12月17日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年6月21日
Arxiv
3+阅读 · 2018年2月20日
Arxiv
6+阅读 · 2018年1月11日
Top
微信扫码咨询专知VIP会员