【ICML2021】从DNN中解释和解分不同复杂度的特征分量

2021 年 7 月 22 日 专知

在人工智能时代,深度学习已经在诸多方面有了广泛的应用,然而,神经网络黑盒本质使得人们难以理解这个复杂的系统。为了打开这一黑盒,目前,对神经网络的「解释」不仅需要在视觉概念的层面“实验观察”特征的语义,更需要“理论解释并建模”神经网络的表达能力,从而打通“直觉上的语义”与“数学建模表达能力”之间的壁垒。


基于此,本项研究提出了一种对神经网络中层“特征复杂度”的通用量化指标,这一方法能够将神经网络中层特征拆分成不同阶次的复杂度分量。通过对不同复杂度特征分量的可视化,人们可以更清晰地分析不同复杂度分量的语义;同时,本研究也提出了数学指标以分析不同复杂度分量的可靠性、有效性、以及过拟合程度。作为一种通用指标,本项研究也可以为深度学习中的一些经典方法提供全新角度的解释。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“DNNC” 就可以获取【ICML2021】从DNN中解释和解分不同复杂度的特征分量》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

专知会员服务
23+阅读 · 2021年8月1日
专知会员服务
22+阅读 · 2021年6月22日
专知会员服务
28+阅读 · 2021年6月7日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
48+阅读 · 2021年6月2日
专知会员服务
80+阅读 · 2021年5月10日
专知会员服务
29+阅读 · 2021年2月26日
【WWW2021】用优化框架解释和统一图神经网络
专知会员服务
44+阅读 · 2021年2月1日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【ICML2021】因果匹配领域泛化
专知
10+阅读 · 2021年8月12日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
最新《图嵌入组合优化》综述论文,40页pdf
深度学习模型可解释性的研究进展
专知
22+阅读 · 2020年8月1日
【新书册】贝叶斯神经网络,41页pdf
专知
25+阅读 · 2020年6月3日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Arxiv
37+阅读 · 2021年2月10日
Arxiv
24+阅读 · 2020年3月11日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
8+阅读 · 2018年5月24日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年8月1日
专知会员服务
22+阅读 · 2021年6月22日
专知会员服务
28+阅读 · 2021年6月7日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
48+阅读 · 2021年6月2日
专知会员服务
80+阅读 · 2021年5月10日
专知会员服务
29+阅读 · 2021年2月26日
【WWW2021】用优化框架解释和统一图神经网络
专知会员服务
44+阅读 · 2021年2月1日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【ICML2021】因果匹配领域泛化
专知
10+阅读 · 2021年8月12日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
最新《图嵌入组合优化》综述论文,40页pdf
深度学习模型可解释性的研究进展
专知
22+阅读 · 2020年8月1日
【新书册】贝叶斯神经网络,41页pdf
专知
25+阅读 · 2020年6月3日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
相关论文
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Arxiv
37+阅读 · 2021年2月10日
Arxiv
24+阅读 · 2020年3月11日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
8+阅读 · 2018年5月24日
Top
微信扫码咨询专知VIP会员