Interpretability is a critical factor in applying complex deep learning models to advance the understanding of brain disorders in neuroimaging studies. To interpret the decision process of a trained classifier, existing techniques typically rely on saliency maps to quantify the voxel-wise or feature-level importance for classification through partial derivatives. Despite providing some level of localization, these maps are not human-understandable from the neuroscience perspective as they do not inform the specific meaning of the alteration linked to the brain disorder. Inspired by the image-to-image translation scheme, we propose to train simulator networks that can warp a given image to inject or remove patterns of the disease. These networks are trained such that the classifier produces consistently increased or decreased prediction logits for the simulated images. Moreover, we propose to couple all the simulators into a unified model based on conditional convolution. We applied our approach to interpreting classifiers trained on a synthetic dataset and two neuroimaging datasets to visualize the effect of the Alzheimer's disease and alcohol use disorder. Compared to the saliency maps generated by baseline approaches, our simulations and visualizations based on the Jacobian determinants of the warping field reveal meaningful and understandable patterns related to the diseases.


翻译:解释是应用复杂的深层次学习模型以增进对神经成像研究中脑病的理解的一个关键因素。为了解释受过训练的分类师的决策过程,现有技术通常依靠显要的地图来量化通过部分衍生物进行分类的氧化物或特性的重要性。尽管提供了某种程度的本地化,但这些地图在神经科学方面是无法从人类的角度理解的,因为它们没有说明与大脑紊乱有关的改变的具体含义。受图像到图像转换办法的启发,我们提议培训模拟器网络,这些网络能够将给定的图像扭曲为该疾病的注射或去除模式。这些网络经过培训后,分类器能够持续增加或减少模拟图像的预测日志。此外,我们提议将所有模拟器合并成一个基于有条件演化的统一模型。我们运用了我们的方法来解释经过合成数据集培训的分类师和两个神经成像的数据集,以直观地貌地显示阿尔茨海默症和酒精使用紊乱的影响。与通过基线方法生成的显要性地图相比,我们的模拟和直观性地显示了与法学相关的病的正确性。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年11月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
6+阅读 · 2019年11月21日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
深度学习医学图像分析文献集
机器学习研究会
17+阅读 · 2017年10月13日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
An Attentive Survey of Attention Models
Arxiv
43+阅读 · 2020年12月15日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2018年1月29日
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年11月21日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
深度学习医学图像分析文献集
机器学习研究会
17+阅读 · 2017年10月13日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员