随着机器学习模型越来越多地用于在医疗保健和刑事司法等高风险环境中帮助决策者,确保决策者(最终用户)正确理解并因此信任这些模型的功能是很重要的。本报告旨在让学生熟悉可解释和可解释ML这一新兴领域的最新进展。在本报告中,我们将回顾该领域的重要论文,理解模型可解释和可解释的概念,详细讨论不同类别的可解释模型(如基于原型的方法、稀疏线性模型、基于规则的技术、广义可加性模型),事后解释(黑箱解释包括反事实解释和显著性图),并探索可解释性与因果关系、调试和公平性之间的联系。该课程还将强调各种应用,可以极大地受益于模型的可解释性,包括刑事司法和医疗保健。

https://himalakkaraju.github.io/

成为VIP会员查看完整内容
76

相关内容

【EMNLP2020】自然语言处理模型可解释性预测,182页ppt
专知会员服务
50+阅读 · 2020年11月19日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
少标签数据学习,54页ppt
专知会员服务
196+阅读 · 2020年5月22日
专知会员服务
99+阅读 · 2020年3月19日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
Arxiv
0+阅读 · 2021年1月21日
Anomalous Instance Detection in Deep Learning: A Survey
Deep learning for cardiac image segmentation: A review
Arxiv
21+阅读 · 2019年11月9日
S4Net: Single Stage Salient-Instance Segmentation
Arxiv
10+阅读 · 2019年4月10日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关VIP内容
【EMNLP2020】自然语言处理模型可解释性预测,182页ppt
专知会员服务
50+阅读 · 2020年11月19日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
少标签数据学习,54页ppt
专知会员服务
196+阅读 · 2020年5月22日
专知会员服务
99+阅读 · 2020年3月19日
微信扫码咨询专知VIP会员