Objective. Understanding how best to estimate state-level policy effects is important, and several unanswered questions remain, particularly about optimal methods for disentangling the effects of concurrently implemented policies. In this paper, we examined the impact of co-occurring policies on the performance of commonly used models in state policy evaluations. Data Sources. Outcome of interest (annual state-specific opioid mortality rate per 100,000) was obtained from 1999-2016 National Vital Statistics System (NVSS) Multiple Cause of Death mortality files. Study Design. We utilized Monte Carlo simulations to assess the effect of concurrent policy enactment on the evaluation of state-level policies. Simulation conditions varied effect sizes of the co-occurring policies as well as the length of time between enactment dates of the co-occurring policies, among other factors. Data Collection. Longitudinal annual state-level data over 18 years from 50 states. Principal Findings. Our results demonstrated high relative bias (>85%) will arise when confounding co-occurring policies are omitted from the analytic model and the co-occuring policies are enacted in rapid succession. Moreover, our findings indicated that controlling for all co-occurring policies will effectively mitigate the threat of confounding bias; however, effect estimates may be relatively imprecise, with larger variance estimates when co-occurring policies were enacted in near succession of each other. We also found that the required length of time between co-occurring policies necessary to obtain robust policy estimates varied across model specifications, being generally shorter for autoregressive (AR) models compared to difference-in-differences (DID) models.


翻译:目标: 了解如何最好地估计州一级的政策影响是十分重要的,还存在若干未回答的问题,特别是关于同时执行的政策影响分解的最佳方法的问题。在本文件中,我们研究了共同政策对国家政策评价中常用模式的绩效的影响。数据来源。1999-2016年国家生命统计系统(NVSS)多重死亡原因档案中得出的有关结果(每年州特有的类阿片死亡率为10万分之一)。研究设计。我们利用蒙特卡洛模拟来评估同时颁布的政策对州一级政策评价的影响。模拟条件不同,共同政策的影响大小不同,以及共同政策颁布日期之间的时间长短也不同。数据收集。18年来,来自50个州的州一级年度数据。主要结论:在相互交错的政策模式被忽略时,我们的结果将显示出高度的偏差( > 85 % ), 共同政策模型被迅速采用。此外,我们的调查结果表明,在确定共同政策的不同时间范围之间,对共同政策的不同政策的影响都有不同,但在确定不同的政策之间,我们所制定的不同政策之间可能具有同样的不确定性。

0
下载
关闭预览

相关内容

一图掌握《可解释人工智能XAI》操作指南
专知会员服务
59+阅读 · 2021年5月3日
专知会员服务
25+阅读 · 2021年4月2日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
CCF C类 | DSAA 2019 诚邀稿件
Call4Papers
6+阅读 · 2019年5月13日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
人工智能 | PRICAI 2019等国际会议信息9条
Call4Papers
6+阅读 · 2018年12月13日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
已删除
将门创投
4+阅读 · 2017年7月7日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年8月1日
The Measure of Intelligence
Arxiv
6+阅读 · 2019年11月5日
VIP会员
相关VIP内容
一图掌握《可解释人工智能XAI》操作指南
专知会员服务
59+阅读 · 2021年5月3日
专知会员服务
25+阅读 · 2021年4月2日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
CCF C类 | DSAA 2019 诚邀稿件
Call4Papers
6+阅读 · 2019年5月13日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
人工智能 | PRICAI 2019等国际会议信息9条
Call4Papers
6+阅读 · 2018年12月13日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
已删除
将门创投
4+阅读 · 2017年7月7日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员