The interpretability of neural networks has recently received extensive attention. The previous prototype-based explainable networks involved prototype activation in both the reasoning process and interpretation process, which requires specific explainable structures for the prototype. This makes the network less accurate as it gains interpretability. To avoid this problem, we propose a new model: decoupling prototypical network (DProtoNet), which contains three modules. 1) encoder module: we propose unrestricted masks to generate expressive features and prototypes. 2) inference module: we propose a multi-image prototype learning method to update prototypes so that the network can learn generalized prototypes. 3) interpretation module: we propose multiple dynamic masks (MDM) decoder to explain the network, which generates heatmaps using the consistent activation of the original image and mask image at the detection nodes of the network. It decouples the inference module and interpretation module of a prototype-based network by avoiding the use of prototype activation to explain the network's decisions, so that the accuracy and interpretability of the network can be simultaneously improved. We test on multiple public general and medical datasets. The accuracy of our method is improved compared with the previous methods, which can be improved by up to 5%. DProtoNet achieves state-of-the-art interpretability.


翻译:最近人们广泛关注神经网络的可解释性。前一个基于原型的可解释网络最近得到广泛关注。前一个原型的可解释网络涉及推理过程和解释过程的原型激活,这需要为原型提供具体的可解释结构。这样,网络就变得不那么精确了。为了避免这一问题,我们提出了一个新模式:解开原型网络(DProtoNet),它包含三个模块。 1 编码模块:我们建议无限制的遮罩生成显微功能和原型。 2 推论模块:我们建议采用多图像原型学习方法更新原型,以便网络能够学习通用原型。 3 解释模块:我们提议多维能面罩(MDM)解码器来解释网络,这个网络使用原始图像的一致激活,在网络的探测节点上遮盖图像。它分解了原型网络的推断模块和解释模块,避免使用原型激活来解释网络的决定,从而可以同时改进网络的准确性和可解释性,这样可以同时改进网络的精确性和可同时改进。我们测试多个公共通用和医学数据结构,我们的方法的准确性与先前的版本相比,可以改进了。DPrototod的方法可以改进了。

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
11+阅读 · 2018年1月18日
VIP会员
相关VIP内容
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员