This paper presents a new optimization approach to causal estimation. Given data that contains covariates and an outcome, which covariates are causes of the outcome, and what is the strength of the causality? In classical machine learning (ML), the goal of optimization is to maximize predictive accuracy. However, some covariates might exhibit a non-causal association to the outcome. Such spurious associations provide predictive power for classical ML, but they prevent us from causally interpreting the result. This paper proposes CoCo, an optimization algorithm that bridges the gap between pure prediction and causal inference. CoCo leverages the recently-proposed idea of environments, datasets of covariates/response where the causal relationships remain invariant but where the distribution of the covariates changes from environment to environment. Given datasets from multiple environments -- and ones that exhibit sufficient heterogeneity -- CoCo maximizes an objective for which the only solution is the causal solution. We describe the theoretical foundations of this approach and demonstrate its effectiveness on simulated and real datasets. Compared to classical ML and existing methods, CoCo provides more accurate estimates of the causal model.


翻译:本文展示了一种新的因果估计优化方法。 根据包含共变和结果的数据, 共变是结果的原因, 以及因果关系的力量是什么? 在古典机器学习中, 优化的目标是最大限度地提高预测准确性。 但是, 一些共变可能表现出非因果关联。 这些假协会为古典ML提供了预测力, 但却阻止我们从因果解释结果。 本文提议了CoCo, 一种弥补纯预测和因果推断之间差距的优化算法。 CoCo 利用了最近提出的环境理念, 共变/反应数据集, 其因果关系仍然变化不定, 但其环境变化的分布却从环境到环境的共变。 鉴于来自多种环境的数据集 -- -- 以及表现出充分异性的那些数据集 -- -- COoco 将一个唯一解决办法是因果解决方案的目标最大化。 我们描述了这一方法的理论基础, 并展示了它在模拟和真实数据集上的有效性。 与古典 ML 和现有方法相比, Coco 提供了更准确的因果模型估计。

1
下载
关闭预览

相关内容

专知会员服务
94+阅读 · 2021年8月28日
因果推断,Causal Inference:The Mixtape
专知会员服务
105+阅读 · 2021年8月27日
【经典书】主动学习理论,226页pdf,Theory of Active Learning
专知会员服务
125+阅读 · 2021年7月14日
专知会员服务
15+阅读 · 2021年5月21日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
已删除
将门创投
8+阅读 · 2019年8月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机类 | LICS 2019等国际会议信息7条
Call4Papers
3+阅读 · 2018年12月17日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Sequential Community Mode Estimation
Arxiv
0+阅读 · 2021年11月16日
Arxiv
0+阅读 · 2021年11月13日
Arxiv
5+阅读 · 2020年6月16日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2019年8月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机类 | LICS 2019等国际会议信息7条
Call4Papers
3+阅读 · 2018年12月17日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员