We attempt to give a unifying view of the various recent attempts to (i) improve the interpretability of tree-based models and (ii) debias the the default variable-importance measure in random Forests, Gini importance. In particular, we demonstrate a common thread among the out-of-bag based bias correction methods and their connection to local explanation for trees. In addition, we point out a bias caused by the inclusion of inbag data in the newly developed explainable AI for trees algorithms.


翻译:我们试图以统一的观点看待最近为以下目的所作的各种尝试:(一) 改进树本模型的解释性,(二) 降低随机森林中默认的可变重要性措施,即基尼的重要性,特别是,我们显示了基于包包的偏见纠正方法及其与当地对树木的解释之间的联系之间的一条共同线,此外,我们指出,由于在新开发的可解释的树算法的人工智能中包含袋数据,造成了一种偏差。

0
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
已删除
将门创投
4+阅读 · 2017年11月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
1+阅读 · 2021年11月23日
VIP会员
相关资讯
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
已删除
将门创投
4+阅读 · 2017年11月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员