We propose a new notion of causal contribution which describes the 'intrinsic' part of the contribution of a node on a target node in a DAG. We show that in some scenarios the existing causal quantification methods failed to capture this notion exactly. By recursively writing each node as a function of the upstream noise terms, we separate the intrinsic information added by each node from the one obtained from its ancestors. To interpret the intrinsic information as a causal contribution, we consider 'structure-preserving interventions' that randomize each node in a way that mimics the usual dependence on the parents and do not perturb the observed joint distribution. To get a measure that is invariant across arbitrary orderings of nodes we propose Shapley based symmetrization. We describe our contribution analysis for variance and entropy, but contributions for other target metrics can be defined analogously.


翻译:我们提出了一个因果贡献的新概念, 描述 DAG 目标节点上的节点贡献的“ 内在” 部分。 我们显示, 在某些情况下, 现有的因果量化方法未能准确地捕捉到这个概念 。 通过反复撰写每个节点作为上游噪音术语的函数, 我们将每个节点所增加的内在信息与其祖先从它祖先那里获得的信息区分开来 。 为了将内在信息解释为因果贡献, 我们考虑“ 结构保护干预”, 随机将每个节点排列成随机模式, 从而模仿对父母的通常依赖, 而不是破坏所观察到的联合分布 。 要获得一个在任意的节点顺序上变化不定的尺度, 我们建议基于“ 虚度” 的对齐称。 我们描述我们对差异和 共性的贡献分析, 但是对其它目标指标的贡献可以作类似的定义 。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
22+阅读 · 2021年9月5日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
110+阅读 · 2020年2月5日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
4+阅读 · 2018年1月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
14+阅读 · 2020年12月17日
Arxiv
110+阅读 · 2020年2月5日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
4+阅读 · 2018年1月15日
Top
微信扫码咨询专知VIP会员