Feature attribution is often loosely presented as the process of selecting a subset of relevant features as a rationale of a prediction. Task-dependent by nature, precise definitions of "relevance" encountered in the literature are however not always consistent. This lack of clarity stems from the fact that we usually do not have access to any notion of ground-truth attribution and from a more general debate on what good interpretations are. In this paper we propose to formalise feature selection/attribution based on the concept of relaxed functional dependence. In particular, we extend our notions to the instance-wise setting and derive necessary properties for candidate selection solutions, while leaving room for task-dependence. By computing ground-truth attributions on synthetic datasets, we evaluate many state-of-the-art attribution methods and show that, even when optimised, some fail to verify the proposed properties and provide wrong solutions.


翻译:特征归属往往被松散地描述为选择一组相关特征作为预测依据的过程。任务依自然而定,文献中遇到的“相关性”的准确定义并不总是一致的。这种缺乏清晰性的原因是我们通常无法获得任何地面真实归属的概念,而且对什么是良好的解释进行了更一般性的辩论。在本文件中,我们提议根据放松功能依赖的概念正式确定特征选择/归属。特别是,我们将我们的概念扩大到实例化设置,为候选人选择解决方案获取必要的属性,同时为任务依赖留有余地。通过计算合成数据集的地面真实属性,我们评估了许多最先进的归属方法,并表明,即使选择了,有些人也无法核实拟议属性并提供错误的解决方案。

1
下载
关闭预览

相关内容

ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
已删除
将门创投
4+阅读 · 2020年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Bounding Means of Discrete Distributions
Arxiv
0+阅读 · 2021年9月6日
Arxiv
0+阅读 · 2021年9月6日
Arxiv
23+阅读 · 2021年3月4日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
22+阅读 · 2018年2月14日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2020年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员