深度学习(DL)模型因其能够直接从原始数据中学习的端到端范式而受到欢迎,这消除了需要一个容易出错的单独特征提取阶段的担忧。最近基于DL的神经影像学研究相对于传统的机器学习算法也取得了显著的性能进步。但由于这些模型缺乏透明性,使得在真实世界应用中成功部署深度学习模型仍然存在挑战。近年来,可解释的AI(XAI)主要为了获得模型是如何做出决策的直觉而经历了一系列的发展,这对于医疗、金融和执法机构等关键安全领域至关重要。尽管可解释性领域显著地在进步,研究人员仍然不清楚后处理方法揭示了模型学习的哪一方面,以及如何验证其可靠性。本文全面回顾了神经影像学领域的可解释深度学习模型。首先,我们总结了一般性的可解释性资源的当前状态,重点关注方法的进展、相关的挑战和意见。其次,我们讨论了如何在多个最近的神经影像学研究中利用模型的可解释性来捕捉与模型预测最相关的解剖学和功能性大脑变化。最后,我们讨论了当前实践的局限性,并提供了一些有价值的见解和指导,以指导我们如何确定未来的研究方向,使深度学习模型得到实质性的解释,从而促进对脑部疾病的科学理解。 增进我们对大脑动态的理解是揭示潜在神经病理条件的基础 [1–3]。因此,定位和解释特定受试者的空间和时间活动可能有助于指导我们对障碍的理解。因此,神经影像学领域人工智能(AI)的一个持续目标是利用磁共振成像(MRI)数据使机器学习与潜在神经障碍相关的功能动态或解剖学变化。对大脑功能和结构的当前理解表明,不同大脑网络中的变化可以最好地解释大脑障碍 [4, 5]。此外,一个大脑网络不一定是空间定位的。传统的分析方法试图找到群体级别的差异,而不是处理个体级别的决策制定。然而,为了在临床实践中充分体现神经影像学研究的转化影响,医生必须将每个个体视为一个独立的病例。这些局限性自然地鼓励人们寻求AI引导的对精神障碍的理解 [6–8]。机器学习(ML)模型不是独立地查看大脑区域,而是使用先进的应用统计和数学优化技术从数据中寻找尚未被发现的整体模式 [9]。

此外,机器学习(ML)能够生成个体级的诊断和预后决策。在这方面,标准机器学习(SML)模型获得了不同程度的成功,专家引导的特征提取和选择步骤几乎是其正常工作的先决条件 [10]。然而,这些表示严重依赖于强烈的假设,并可能错过潜在动态的关键方面。遗憾的是,当在原始数据上训练时,SML模型表现不佳 [11–13]。但是,我们需要超越现有的知识,从原始数据中学习对于进一步提高心理健康分析是至关重要的。具体地说,直接从数据中学习可能会揭示数据中未被发现和有价值的模式,并可能为临床实践带来转化价值。它还可能加速诊断和预后决策制定过程,最终导致个性化的治疗计划。当SML模型无法从原始数据中学习时,深度学习(DL)变得非常流行,因为它不需要先前的特征选择或中间干预 [14–18]。它可以自动从原始数据中学习,并找到有区别性和可能有用的临床特征。虽然DL模型的可解释性是非常令人期望的,并且可能更快地揭示特定领域的知识 [19, 20],但深度学习模型是黑盒子 [21],其确切的学习机制仍然未知。在事后方式内省DL模型可能是不可靠的,因为模型实际上学到的内容取决于它们的架构 [22] 和训练过程中的初始化 [23]。此外,不同解释方法之间存在不一致的问题 [24, 25],因为这些方法基本上是基于直觉的,并研究模型的各种方面。而且,神经影像学研究中还没有公认的事后解释验证方法,这阻碍了自动发现的广泛使用。虽然以忠实和有用的方式解释模型是一项具有挑战性的任务,但在将它们应用于产生新的、可靠的、可采取行动的洞察来对抗这些疾病之前,这是一个不可否认的步骤。

在这篇综述文章中,我们为神经影像学研究提供了一个关于深度学习模型可解释性的全面回顾。我们阐述了解释问题的哲学基础、维度和要求,并总结了为实现可靠的模型解释性而常用的方法和指标。接着,我们讨论了深度学习方法在神经影像学中的最新发展,并展示了一些关于如何应用各种解释性概念进行新发现的鼓舞人心的示例。我们通过提供一套我们认为将对未来从业者有用的指导和警告来补充这一讨论。 在第4节,我们讨论了科学解释的哲学观点。然后,在第5节中,我们从一个整体的角度介绍了AI模型的可解释性问题。在第6节,我们提供了一个有用的解释性方法的分类,并展示了使用这些方法的几个示例性的神经影像学研究。我们还简要介绍了所有主要的解释性方法的分支和每个分支中所有主要方法背后的直觉。在第7节,我们讨论了AI中解释性的期望和解释性方法需要满足的公理。在第8节,我们描述了常见的合理性测试,以证明事后解释的初步验证。我们还累积了解释性文献中提出的正式评估指标,为合成和真实数据集生成的解释提供定量验证。在考虑使用事后方法时,我们还用之前的研究中谈到的警告来补充这一部分。在第9节,我们讨论了神经影像学的深度学习方法以及这些研究中解释性的重要性。我们首先在第9.1节讨论了传统的特征工程方法,然后在第9.2节,我们转向讨论深度学习方法在神经影像学研究中的潜力。对于深度学习方法,我们强调了迁移学习(第9.3节)和解释性(第9.4节)的需要,以支持这些发现在临床和神经科学上都是有价值的。在第10节,我们详细回顾了使用图2中描述的所有主要解释性方法的最新神经影像学研究。我们展示了一些示例性的例子,说明最近的神经影像学研究如何使用解释性的想法来发现新的神经精神病生物标记物。在第11节,我们调查了在超过300项神经影像学研究中解释性方法的使用趋势。然后,基于本综述的总体发现,在第12节中,我们为神经影像学中的未来解释性实践提出了有用的建议和警告。我们最后在第13节讨论了我们的结论性意见。

成为VIP会员查看完整内容
54

相关内容

【剑桥大学博士论文】机器学习中的分布外泛化,214页pdf
【KDD2023教程】大规模图神经网络:过去与新前沿,181页pdf
【普林斯顿博士论文】神经符号机器学习推理,133页pdf
专知会员服务
45+阅读 · 2023年2月1日
专知会员服务
15+阅读 · 2021年4月16日
【ECAI2020】可扩展深度学习: 理论与算法,120页ppt
专知会员服务
27+阅读 · 2020年9月25日
专知会员服务
63+阅读 · 2020年9月10日
综述 | 分布式GNN训练算法和系统,35页pdf
图与推荐
4+阅读 · 2022年11月2日
【KDD2020】图神经网络:基础与应用,322页ppt
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员