题目: Towards Explainable Deep Neural Networks (xDNN)

简介: 在本文中,我们提出了一种解决方案,该解决方案直接解决了传统深度学习方法的瓶颈,并提供了一种清晰可解释的内部架构,该架构可以胜过现有方法,只需要很少的计算资源(不需要GPU)并且训练时间短(以秒为单位)。提出的方法xDNN原型,原型是实际的训练数据样本(图像),是经验数据分布的局部峰值(称为典型性)以及数据密度。这种生成模型以封闭形式识别,但可以自动且完全从训练数据中得出,而无需用户或问题特定的阈值,参数或干预。xDNN提供了一种新的深度学习架构,该架构将推理和学习结合在一起。它是非迭代且非参数的,这从时间和计算资源上解释了其效率。从用户的角度来看,用户显然可以理解所提出的方法。我们在一些著名的基准数据集(例如iRoads和Caltech-256)上对其进行了测试。 xDNN在准确性,训练时间方面优于其他方法,包括深度学习,并提供了一个清晰可解释的分类器。

成为VIP会员查看完整内容
39

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
40行Python代码,实现卷积特征可视化
机器之心
5+阅读 · 2019年1月31日
入门最佳:PyTorch深度学习免费课程
新智元
7+阅读 · 2018年9月18日
已删除
将门创投
3+阅读 · 2018年4月10日
【吴恩达deeplearning.ai笔记二】通俗讲解神经网络上
机器学习研究会
4+阅读 · 2018年3月10日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
斯坦福完全可解释深度神经网络:你需要用决策树搞点事
中国人工智能学会
4+阅读 · 2018年1月10日
TensorFlow神经网络教程
Python程序员
4+阅读 · 2017年12月4日
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
【文章】深度神经网络中的对抗样本与学习7篇文章
GAN生成式对抗网络
6+阅读 · 2017年9月8日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
4+阅读 · 2018年3月30日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
7+阅读 · 2018年1月31日
VIP会员
相关VIP内容
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
相关资讯
40行Python代码,实现卷积特征可视化
机器之心
5+阅读 · 2019年1月31日
入门最佳:PyTorch深度学习免费课程
新智元
7+阅读 · 2018年9月18日
已删除
将门创投
3+阅读 · 2018年4月10日
【吴恩达deeplearning.ai笔记二】通俗讲解神经网络上
机器学习研究会
4+阅读 · 2018年3月10日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
斯坦福完全可解释深度神经网络:你需要用决策树搞点事
中国人工智能学会
4+阅读 · 2018年1月10日
TensorFlow神经网络教程
Python程序员
4+阅读 · 2017年12月4日
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
【文章】深度神经网络中的对抗样本与学习7篇文章
GAN生成式对抗网络
6+阅读 · 2017年9月8日
微信扫码咨询专知VIP会员