We study how to improve efficiency via regression adjustments with additional covariates under covariate-adaptive randomizations (CARs) when subject compliance is imperfect. We first establish the semiparametric efficiency bound for the local average treatment effect (LATE) under CARs. Second, we develop a general regression-adjusted LATE estimator which allows for parametric, nonparametric, and regularized adjustments. Even when the adjustments are misspecified, our proposed estimator is still consistent and asymptotically normal, and their inference method still achieves the exact asymptotic size under the null. When the adjustments are correctly specified, our estimator achieves the semiparametric efficiency bound. Third, we derive the optimal linear adjustment that leads to the smallest asymptotic variance among all linear adjustments. We then show the commonly used two stage least squares estimator is not optimal in the class of LATE estimators with linear adjustments while Ansel, Hong, and Li's (2018) estimator is. Fourth, we show how to construct a LATE estimator with nonlinear adjustments which is more efficient than those with the optimal linear adjustment. Fifth, we give conditions under which LATE estimators with nonparametric and regularized adjustments achieve the semiparametric efficiency bound. Last, simulation evidence and empirical application confirm efficiency gains achieved by regression adjustments relative to both the estimator without adjustment and the standard two-stage least squares estimator.


翻译:我们研究如何通过回归调整来提高效率。 当对象的合规性不完善时,我们研究如何在共变调整随机(CARs)下通过额外的共变调差来提高效率。 我们首先在CARs下为当地平均处理效果(LATE)建立半参数效率。 其次, 我们开发一个通用的回归调整 LATE 估计值, 允许参数性、 非参数性和正常调整。 即使调整定义错误, 我们提议的估计值仍然一致, 且不那么正常, 它们的推断法仍然在无效情况下达到精确的无症状大小。 当调整得到正确指定时, 我们的估测器将实现常规半对准处理效果(LATE ) 。 第三, 我们得出最佳线性调整, 导致所有线性调整之间最小的无偏差值差异。 然后我们展示通常使用的两个阶段最小正方位估计值的估算值不是最佳的等级, 而Ansel, Hong, 和Li18 估测算法则仍然达到无效的大小。 第四, 我们展示如何构建一个不精确的平比平面调整法调整法调整, 我们通过不精确的调整, 最终的调整, 我们通过不精确的调整, 将最终的调整, 实现这些调整, 我们通过不精确的对等比平比的平比的平比的平比的平比的平比的平比的平比的平局的平变的调整, 平变的调整, 我们的平比的平变的对的平的 的平局性调整, 平的平的平的平的对的平局性调整。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium5
中国图象图形学学会CSIG
1+阅读 · 2021年11月11日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium2
中国图象图形学学会CSIG
0+阅读 · 2021年11月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年10月19日
Arxiv
0+阅读 · 2022年10月19日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium5
中国图象图形学学会CSIG
1+阅读 · 2021年11月11日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium2
中国图象图形学学会CSIG
0+阅读 · 2021年11月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员