本课程是关于可解释人工智能(XAI)的,这是机器学习的一个分支领域,为复杂模型提供透明度。现代机器学习严重依赖于黑盒模型,如树集成和深度神经网络;这些模型提供了最先进的准确性,但它们使理解驱动其预测的特征、概念和数据示例变得困难。因此,用户、专家和组织很难信任这样的模型,并且了解我们正在建模的底层过程是具有挑战性的。 对此,一些人认为,我们应该在高风险应用中依赖内在可解释的模型,如医药和消费金融。其他人主张事后解释工具,即使是为复杂的模型提供一定程度的透明度。本课程探讨了这两种观点,我们将讨论广泛的工具,以解决模型如何进行预测的不同问题。我们将涵盖该领域许多活跃的研究领域,包括特征归因、反事实解释、实例解释和人类- ai合作。 本课程共设10节课(每节3小时),课程结构如下:

介绍与动机 特征重要性:基于删除的解释,基于传播的解释,评估指标 其他解释范式:固有可解释性模型、概念解释、反事实解释、实例解释、神经元解释 人机协作 工业应用

Lecture 1: Introduction * Lecture 2: Removal-based explanations * Lecture 3: Shapley values * Lecture 4: Propagation and gradient-based explanations * Lecture 5: Evaluating explanation methods * Lecture 6: Inherently interpretable models * Lecture 7: Concept-based explanations, neuron interpretation * Lecture 8: Counterfactual explanations, instance explanations * Lecture 9: Enhancing human-AI collaboration * Lecture 10: Model improvement, applications in industry and healthcare

成为VIP会员查看完整内容
67

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
【MIT-AI+医学课程】面向生命科学的深度学习课程
专知会员服务
47+阅读 · 2022年4月17日
专知会员服务
39+阅读 · 2020年10月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【MIT干货课程】医疗健康领域的机器学习
专知
1+阅读 · 2022年5月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
22+阅读 · 2021年12月2日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员