随着机器学习模型越来越多地用于在医疗保健和刑事司法等高风险环境中帮助决策者,确保决策者(最终用户)正确理解并因此信任这些模型的功能是很重要的。本课程旨在让学生熟悉可解释和可解释ML这一新兴领域的最新进展。在本报告中,我们将回顾该领域的重要论文,理解模型可解释和可解释的概念,详细讨论不同类别的可解释模型(如基于原型的方法、稀疏线性模型、基于规则的技术、广义可加性模型),事后解释(黑箱解释包括反事实解释和显著性图),并探索可解释性与因果关系、调试和公平性之间的联系。该课程还将强调各种应用,可以极大地受益于模型的可解释性,包括刑事司法和医疗保健。

https://himalakkaraju.github.io/

成为VIP会员查看完整内容
125

相关内容

可解释性是指一个人能够持续预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。
专知会员服务
63+阅读 · 2021年1月6日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
专知会员服务
39+阅读 · 2020年10月13日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
159+阅读 · 2020年10月10日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Hardness-Aware Deep Metric Learning
Arxiv
6+阅读 · 2019年3月13日
Single-frame Regularization for Temporally Stable CNNs
Arxiv
7+阅读 · 2018年3月21日
Arxiv
5+阅读 · 2017年12月14日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关VIP内容
专知会员服务
63+阅读 · 2021年1月6日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
专知会员服务
39+阅读 · 2020年10月13日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
159+阅读 · 2020年10月10日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
相关论文
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Hardness-Aware Deep Metric Learning
Arxiv
6+阅读 · 2019年3月13日
Single-frame Regularization for Temporally Stable CNNs
Arxiv
7+阅读 · 2018年3月21日
Arxiv
5+阅读 · 2017年12月14日
Arxiv
6+阅读 · 2017年12月7日
微信扫码咨询专知VIP会员