本书对深度学习模型可解释性的最新研究工具进行了全面的策划、阐述和说明性讨论,重点是神经网络架构。此外,还包括计算机视觉、光学和机器学习相关主题的应用导向型文章中的若干案例研究。

这本书可以作为深度学习中涵盖最新主题的可解释性的专题论文,也可以作为研究生的教科书。负责研究、开发和应用的科学家从它的系统阐述中受益。

本书的动机是深度学习架构的黑箱性质与其编码的知识模型的人类可解释性之间的巨大差距。人工智能模型的准确性和可理解性对于人工智能和人类智能的共存和协作变得越来越重要。在某些危及生命的应用中,可解释性对于根本原因分析和人类决策至关重要。本书侧重于对深度学习模型可解释性的最新研究工具进行全面的策划、阐述和说明性讨论,重点是神经网络架构。其中很大一部分工作补充了现有的深度学习和神经网络教科书,并以过去十年的工作为基础,其中重点是网络中编码的知识的可视化和可解释性。这些工作来自计算机视觉、模式识别和深度学习领域的领先会议和期刊。此外,还包括来自不同领域的面向应用文章的几个案例研究,包括计算机视觉、光学和自然语言处理。在目前与深度学习、机器学习和神经网络相关的研究生课程中,缺乏处理可解释性主题的教学材料。这主要是因为机器学习社区之前的重点是精度,而可解释性的问题是一个新兴的话题。然而,随着书籍[81]、[428]、课堂讲稿[532]、新课程以及观点[520]的出版,它作为越来越相关的主题正在获得吸引力。然而,这些工作中对通用机器学习的关注意味着,深度学习中的可解释性问题目前仍然没有得到足够的深度解决,深度学习现在在各种机器学习应用中广泛使用。因此,这本教科书将是致力于这一主题的先驱教科书之一。这可能会导致设立关于这一主题的专门研究生课程,因为人们认为需要这类课程,但缺乏关于这一主题的有组织的材料是一个突出的障碍。

在第一章中,我们介绍了本书的背景和动机,帮助读者设定对本书的期望并理解材料的范围。我们还通过总结深度学习的演变提供了一个简短的历史。在此过程中,我们也阐明了这种演变如何导致知识抽象化的增加,从而形成了众所周知的黑箱模型,它编码了知识但并未解释知识。我们自然地将这个讨论引向可解释性的问题,确定了其必要性以及所面临的挑战。我们也澄清了本书的重点是解决现有深度学习架构中的可解释性,而将新的天然可解释的深度学习架构的设计主题委托给最后一章的一个小节(并可能在未来的本书第二卷中)。

在第二章中,我们介绍了深度学习的各种现代主题,包括传统的神经网络架构、学习机制以及深度学习的挑战。本章的目标是介绍背景概念并为后续章节的技术阐述做准备。特别地,我们将会覆盖卷积神经网络、自编码器、对抗神经网络、图神经网络和神经模糊网络,因为在接下来的章节中将详细探讨这些范式的可解释性机制。同样,具体的学习机制将会被解释,以便在后续章节中识别可解释性的损失或机会。出于全面性的考虑,我们还将包含一节关于其他类型的深度学习方法,即使在其他章节中并未详述它们的可解释性。

在第三章中,我们开始全面处理可解释性。具体来说,我们在深度学习方法的一般特性的背景下讨论可解释性的概念。我们从讨论神经元和特征级别的抽象知识编码开始,然后讨论抽象编码的可解释性和可视化。从理解概念、优点和缺点的角度出发,我们讨论了诸如激活图、显著性、注意力模型等常规技术。然后,我们分析了在优化或学习过程中知识如何传播,作为深入了解如何解释使用深度学习模型学习的知识的挑战和机会。神经网络通过连续的非线性激活提取特征,这使得知识表示变得困难,同时对噪声和不完整数据区域敏感。我们使用一个案例研究讨论了知识与性能的关系。最后,我们讨论了深度编码与浅层编码的解释,这两者的性能存在竞争。因此,本章涵盖了一系列普遍适用于任何深度学习架构的可解释性主题。

第四章专门介绍针对特定单一架构的可解释性方法。本章选择的架构有卷积神经网络、自编码器网络、对抗网络和图学习技术。我们包括了与这些架构相关的相对较新的主题,例如卷积神经网络的新概念“卷积追踪”,自编码器网络潜在空间中抽象特征的可解释性,对抗网络中判别模型的可解释性,以及图神经网络的图嵌入解释性。我们为每种架构给出了至少一个案例研究,包括来自各种应用领域的案例。我们也简要地参考了注意力网络,这种网络在设计中固有地包含了某种可解释性。

第五章专门讨论模糊深度学习。这种方法与以神经网络为中心的深度学习略有不同,因为模糊逻辑和基于规则的推理是这类网络设计的核心。对解释的需求导致了对基于规则的系统的再度关注。这也是一个被独立研究的主题,很少在深度学习和可解释性的特定背景下研究。我们通过阐述模糊深度学习的主题和相关的.

成为VIP会员查看完整内容
147

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
卷积神经网络的可解释性研究综述
专知会员服务
89+阅读 · 2023年6月5日
【2023新书】深度学习时间序列分析,208页pdf
专知会员服务
187+阅读 · 2023年6月2日
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
167+阅读 · 2023年3月26日
【Manning2022新书】深度学习自然语言处理,296页pdf
专知会员服务
148+阅读 · 2022年10月25日
【2021新书】深度学习计算机视觉,320页pdf
专知会员服务
191+阅读 · 2021年5月20日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
【2020新书】深度学习自然语言处理简明导论,69页pdf
专知会员服务
114+阅读 · 2020年11月7日
【2020新书】机器学习在能源行业中的应用,315页pdf
专知会员服务
121+阅读 · 2020年11月3日
【2023新书】机器学习集成方法,354页pdf
专知
38+阅读 · 2023年4月11日
【2022新书】深度学习归一化技术,117页pdf
专知
24+阅读 · 2022年11月25日
46页pdf, 165篇文献 | 图的可解释性
图与推荐
3+阅读 · 2022年10月25日
深度学习模型可解释性的研究进展
专知
25+阅读 · 2020年8月1日
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
VIP会员
相关VIP内容
卷积神经网络的可解释性研究综述
专知会员服务
89+阅读 · 2023年6月5日
【2023新书】深度学习时间序列分析,208页pdf
专知会员服务
187+阅读 · 2023年6月2日
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
167+阅读 · 2023年3月26日
【Manning2022新书】深度学习自然语言处理,296页pdf
专知会员服务
148+阅读 · 2022年10月25日
【2021新书】深度学习计算机视觉,320页pdf
专知会员服务
191+阅读 · 2021年5月20日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
【2020新书】深度学习自然语言处理简明导论,69页pdf
专知会员服务
114+阅读 · 2020年11月7日
【2020新书】机器学习在能源行业中的应用,315页pdf
专知会员服务
121+阅读 · 2020年11月3日
相关基金
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员