任何机器学习模型的核心都有一个响应函数,它试图映射和解释独立(输入)变量和从属(目标或响应)变量之间的关系和模式。当模型预测或找到我们的见解时,需要做出某些决定和选择。模型解释试图理解和解释响应函数所做出的这些决策,即什么,为什么以及如何。模型解释的关键是透明度,质疑能力以及人类理解模型决策的难易程度。 解释性也通常被称为机器学习模型的人类可解释性解释(HII),是人类(包括非机器学习专家)能够理解模型在决策过程中所做出的选择的程度(如何,为什么和什么)。在比较模型时,除了模型性能之外,如果模型的决策比其他模型的决策更容易被人理解,那么模型被认为比其他模型具有更好的可解释性。
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
模型可解释性在保险理赔反欺诈中的实践
专知
2+阅读 · 2021年3月23日
论文浅尝 - ICML2020 | 对比图神经网络解释器
开放知识图谱
0+阅读 · 2020年9月9日
武汉新冠肺炎传播的动力学模型及预测
THU数据派
0+阅读 · 2020年2月1日
机器学习模型的可解释性
DataFunTalk
2+阅读 · 2020年1月3日
“当代机器学习实践”暑期课圆满结束
科技创新与创业
4+阅读 · 2019年7月24日
干货 | 可解释的机器学习
AI科技评论
18+阅读 · 2019年7月3日
R语言机器学习:xgboost的使用及其模型解释
R语言中文社区
10+阅读 · 2019年5月6日
参考链接
微信扫码咨询专知VIP会员