http://www.interpretable-ml.org/ecml2020tutorial/
能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要的。深度非线性ML模型的兴起,在预测方面取得了巨大的进展。然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XAI)领域出现了,并产生了一系列能够解释复杂和多样化的ML模型的方法。
在本教程中,我们结构化地概述了在深度神经网络(DNNs)的背景下为XAI提出的基本方法。特别地,我们提出了这些方法的动机,它们的优点/缺点和它们的理论基础。我们还展示了如何扩展和应用它们,使它们在现实场景中发挥最大的作用。
本教程针对的是核心和应用的ML研究人员。核心机器学习研究人员可能会有兴趣了解不同解释方法之间的联系,以及广泛的开放问题集,特别是如何将XAI扩展到新的ML算法。应用ML研究人员可能会发现,理解标准验证程序背后的强大假设是很有趣的,以及为什么可解释性对进一步验证他们的模型是有用的。他们可能还会发现新的工具来分析他们的数据并从中提取见解。参与者将受益于技术背景(计算机科学或工程)和基本的ML训练。
目录内容:
Part 1: Introduction to XAI (WS) 可解释人工智能
Motivations for XAI
Methods and Validation of XAI
The Clever Hans Effect
Part 2: Methods for Explaining DNNs (GM) 可解释深度神经网络方法
Self-Explainable DNNs
Perturbation-Based Explanation Techniques
Propagation-Based Explanation Techniques
Part 3: Implementation, Theory, Evaluation, Extensions (GM) 实现,理论、评价
Implementating XAI Techniques for DNNs
Theoretical Embedding of XAI
Desiderata of XAI Techniques and Evaluation
Extending XAI Beyond Heatmaps and DNNs
Part 4: Applications (WS) 应用
Walk-Through Examples
Debugging Large Datasets (Meta-Explanations and "Unhansing")
XAI in the Sciences
专知便捷查看
便捷下载,请关注专知公众号(点击上方蓝色专知关注)
后台回复“XAI200” 可以获取《【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt》专知下载链接索引