The increasing availability of large collections of electronic health record (EHR) data and unprecedented technical advances in deep learning (DL) have sparked a surge of research interest in developing DL based clinical decision support systems for diagnosis, prognosis, and treatment. Despite the recognition of the value of deep learning in healthcare, impediments to further adoption in real healthcare settings remain due to the black-box nature of DL. Therefore, there is an emerging need for interpretable DL, which allows end users to evaluate the model decision making to know whether to accept or reject predictions and recommendations before an action is taken. In this review, we focus on the interpretability of the DL models in healthcare. We start by introducing the methods for interpretability in depth and comprehensively as a methodological reference for future researchers or clinical practitioners in this field. Besides the methods' details, we also include a discussion of advantages and disadvantages of these methods and which scenarios each of them is suitable for, so that interested readers can know how to compare and choose among them for use. Moreover, we discuss how these methods, originally developed for solving general-domain problems, have been adapted and applied to healthcare problems and how they can help physicians better understand these data-driven technologies. Overall, we hope this survey can help researchers and practitioners in both artificial intelligence (AI) and clinical fields understand what methods we have for enhancing the interpretability of their DL models and choose the optimal one accordingly.


翻译:大量电子健康记录(EHR)数据收集的大量增加,以及深层次学习(DL)方面前所未有的技术进步,都引发了对开发基于DL的诊断、预测和治疗临床决策支持系统的研究兴趣。尽管人们认识到在保健方面深层学习的价值,但在实际保健环境中进一步采用这些障碍仍然存在,因为DL的黑箱性质。因此,人们日益需要可解释的DL,使终端用户能够评价示范决策,了解在采取行动之前是否接受或拒绝预测和建议。在本次审查中,我们侧重于DL模式在保健方面的可解释性。我们首先采用深入和全面的解释方法,作为该领域未来研究人员或临床从业者的方法参考。除了方法的细节外,我们还包括讨论这些方法的利弊,以及每种方法的假设都适合,以便感兴趣的读者能够知道如何比较和选择这些方法供使用。此外,我们讨论了这些最初为解决一般问题而开发的方法是如何被调整和应用的。我们开始采用这些方法是为了深入和全面解释性的。我们开始采用这些方法,作为这个领域未来研究人员或临床从业者的方法的参考。除了方法的细节之外,我们还在讨论这些方法中能够更好地理解这些方法,从而帮助我们如何理解这些方法,从而了解它们能够帮助我们如何理解这些在全面研究领域的研究人员了解这些方法。

0
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
127+阅读 · 2020年5月14日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
深度学习医学图像分析文献集
机器学习研究会
17+阅读 · 2017年10月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Smart HealthCare System
Arxiv
0+阅读 · 2022年2月10日
Generalized Out-of-Distribution Detection: A Survey
Arxiv
15+阅读 · 2021年10月21日
Arxiv
8+阅读 · 2021年10月5日
Arxiv
56+阅读 · 2021年5月3日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Arxiv
108+阅读 · 2020年2月5日
VIP会员
相关资讯
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
深度学习医学图像分析文献集
机器学习研究会
17+阅读 · 2017年10月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Smart HealthCare System
Arxiv
0+阅读 · 2022年2月10日
Generalized Out-of-Distribution Detection: A Survey
Arxiv
15+阅读 · 2021年10月21日
Arxiv
8+阅读 · 2021年10月5日
Arxiv
56+阅读 · 2021年5月3日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Arxiv
108+阅读 · 2020年2月5日
Top
微信扫码咨询专知VIP会员