近年来,深度神经网络(Deep Neural Networks, DNNs),包括卷积神经网络(Convolutional Neural Networks, cnn)和图神经网络(Graph Neural Networks, GNNs)的快速发展,使得图像和图结构数据等几何数据的表示学习得到了快速的发展,并取得了显著的进展。然而,dnn通常提供非常有限的透明度,这对观察和理解模型何时以及为什么做出成功/不成功的预测提出了重大挑战[61]。近年来,局部解释技术的研究快速发展,但大部分关注的是如何生成解释,而不是理解“解释是否准确/合理”、“如果解释不准确/不合理该如何处理”、“如何调整模型以生成更准确/合理的解释”[13,108,168,88,129,130,62,183,151]。 **为探索和回答上述问题,本文旨在探索一条新的研究路线,即解释引导学习(EGL),通过XAI技术干预深度学习模型的行为,共同提高深度神经网络的可解释性和泛化性。**本文提出在几何数据上探索EGL,包括图像和图结构数据,由于几何数据解释的复杂性和固有挑战,这些数据目前在研究界未得到充分探索[61]。为实现上述目标,本文首先探索了几何数据的可解释性方法,以理解深度神经网络(dnn)用生物启发方法学习的概念,并提出了解释图神经网络(gnn)对医疗保健应用的预测的方法。为图神经网络设计了一个交互式通用解释监督框架GNES,以实现"学习解释"管道,从而可以提供更合理、更可控的解释。本文提出两个通用框架,即梯度和RES,通过开发新的解释模型目标,用于鲁棒的视觉解释指导学习,可以将噪声的人类注释标签作为监督信号,并从理论上证明了模型泛化的好处。这项研究跨越了多个学科,并通过提出新的框架,可应用于各种现实世界问题,这些问题的可解释性和任务性能都至关重要,有望在各个领域做出一般性贡献,如深度学习、可解释的人工智能、医疗保健、计算神经科学和人机交互。

https://etd.library.emory.edu/concern/etds/k930bz47x?locale=en

成为VIP会员查看完整内容
35

相关内容

表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
【剑桥大学博士论文】自主智能体解释,175页pdf
专知会员服务
65+阅读 · 2023年3月3日
【MIT博士论文】多模态模型学习语言,138页pdf
专知会员服务
57+阅读 · 2022年12月23日
【CMU博士论文】多视图上下文理解的知识增强表示学习
专知会员服务
34+阅读 · 2022年8月11日
【MIT博士论文】数据高效强化学习,176页pdf
专知会员服务
85+阅读 · 2022年7月11日
专知会员服务
65+阅读 · 2021年10月15日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
46页pdf, 165篇文献 | 图的可解释性
图与推荐
3+阅读 · 2022年10月25日
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年4月20日
Arxiv
0+阅读 · 2023年4月20日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
【剑桥大学博士论文】自主智能体解释,175页pdf
专知会员服务
65+阅读 · 2023年3月3日
【MIT博士论文】多模态模型学习语言,138页pdf
专知会员服务
57+阅读 · 2022年12月23日
【CMU博士论文】多视图上下文理解的知识增强表示学习
专知会员服务
34+阅读 · 2022年8月11日
【MIT博士论文】数据高效强化学习,176页pdf
专知会员服务
85+阅读 · 2022年7月11日
专知会员服务
65+阅读 · 2021年10月15日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
相关基金
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
相关论文
微信扫码咨询专知VIP会员