How should scholars evaluate the statistically estimated causal effect of a policy intervention? I point out three limitations in the conventional practice. First, relying on statistical significance misses the fact that uncertainty is a continuous scale. Second, focusing on a standard point estimate overlooks variation in plausible effect sizes. Third, the criterion of substantive significance is rarely explained or justified. To address these issues, I propose an original Bayesian decision-theoretic model for binary outcomes. I incorporate the posterior distribution of a causal effect reducing the likelihood of an undesirable event, into a loss function over the cost of a policy to realize the effect and the cost of the event. The model can use an effect size of interest other than the standard point estimate, and the probability of this effect as a continuous measure of uncertainty. It then presents approximately up to what ratio between the two costs an expected loss remains smaller if the policy is implemented than if not. I exemplify my model through three applications and provide an R package for easy implementation.


翻译:学者应如何评价政策干预的统计估计因果关系? 我指出常规做法的三个限制。首先,依赖统计意义,忽略了不确定性是一个连续规模的事实。第二,侧重于标准点估计忽略了可能效果大小的差异。第三,实质性意义标准很少得到解释或说明。为解决这些问题,我提议了最初的巴耶斯决定-理论模式,用于二元结果。我将后因果分布模式纳入一项政策实现效果和成本成本的成本的损失函数中,该模式可以使用除标准点估计以外的利息效应大小,以及这种效应的概率,作为持续不确定性的衡量。然后,如果政策得到实施,预期损失在这两种成本之间的比率仍然比不执行要小。我通过三种应用来说明我的模型的后因果分布,并提供一套R组合,以便于执行。

0
下载
关闭预览

相关内容

【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年1月11日
Statistical Methods for cis-Mendelian Randomization
Arxiv
0+阅读 · 2021年1月11日
Arxiv
0+阅读 · 2021年1月11日
Arxiv
0+阅读 · 2021年1月10日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员