Anecdotally, using an estimated propensity score is superior to the true propensity score in estimating the average treatment effect based on observational data. However, this claim comes with several qualifications: it holds only if propensity score model is correctly specified and the number of covariates $d$ is small relative to the sample size $n$. We revisit this phenomenon by studying the inverse propensity score weighting (IPW) estimator based on a logistic model with a diverging number of covariates. We first show that the IPW estimator based on the estimated propensity score is consistent and asymptotically normal with smaller variance than the oracle IPW estimator (using the true propensity score) if and only if $n \gtrsim d^2$. We then propose a debiased IPW estimator that achieves the same guarantees in the regime $n \gtrsim d^{3/2}$. Our proofs rely on a novel non-asymptotic decomposition of the IPW error along with careful control of the higher order terms.


翻译:估计倾向得分更好的条件是什么?高维分析和偏差校正 传统上,使用估计倾向得分相比真实倾向得分更有利于基于观测数据估计平均处理效果。然而,这种说法有几个限制条件:只有在倾向得分模型正确规范化且协变量数量$d$相对于样本大小$n$很小时才成立。本文通过研究基于逻辑模型的倒数倾向得分加权(IPW)估计器, 在具有发散协变量数量的情况下对此现象进行了重新评估。我们首先证明,仅当$n \gtrsim d^2$时, 基于估计倾向得分的IPW估计器是一致和渐进正常的,其方差比真实的IPW估计器(使用真实的倾向得分)小。然后,我们提出了一种去偏IPW估计器,它在$n \gtrsim d^{3/2}$的区间内实现了相同的保证。我们的证明依赖于一种新的非渐近分解IPW误差的方法,以及对更高阶项的仔细控制。

0
下载
关闭预览

相关内容

【ICML2023】序列反事实风险最小化
专知会员服务
20+阅读 · 2023年5月1日
【NeurIPS2022】时序解纠缠表示学习
专知会员服务
22+阅读 · 2022年10月30日
【ICML2022】Sharp-MAML:锐度感知的模型无关元学习
专知会员服务
16+阅读 · 2022年6月10日
【干货书】概率,统计与数据,513页pdf
专知会员服务
136+阅读 · 2021年11月27日
专知会员服务
25+阅读 · 2021年9月9日
因果推断,Causal Inference:The Mixtape
专知会员服务
105+阅读 · 2021年8月27日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
赛尔笔记 | 逻辑推理阅读理解任务及方法
哈工大SCIR
1+阅读 · 2022年6月7日
论文浅尝|简单高效的知识图谱表示学习负样本采样方法
已删除
德先生
53+阅读 · 2019年4月28日
论文浅尝 | 区分概念和实例的知识图谱嵌入方法
开放知识图谱
17+阅读 · 2019年1月19日
用 LDA 和 LSA 两种方法来降维和做 Topic 建模
AI研习社
13+阅读 · 2018年8月24日
线性回归:简单线性回归详解
专知
12+阅读 · 2018年3月10日
回归预测&时间序列预测
GBASE数据工程部数据团队
43+阅读 · 2017年5月17日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
72+阅读 · 2016年11月26日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
0+阅读 · 2023年5月17日
VIP会员
相关VIP内容
【ICML2023】序列反事实风险最小化
专知会员服务
20+阅读 · 2023年5月1日
【NeurIPS2022】时序解纠缠表示学习
专知会员服务
22+阅读 · 2022年10月30日
【ICML2022】Sharp-MAML:锐度感知的模型无关元学习
专知会员服务
16+阅读 · 2022年6月10日
【干货书】概率,统计与数据,513页pdf
专知会员服务
136+阅读 · 2021年11月27日
专知会员服务
25+阅读 · 2021年9月9日
因果推断,Causal Inference:The Mixtape
专知会员服务
105+阅读 · 2021年8月27日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
相关资讯
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
赛尔笔记 | 逻辑推理阅读理解任务及方法
哈工大SCIR
1+阅读 · 2022年6月7日
论文浅尝|简单高效的知识图谱表示学习负样本采样方法
已删除
德先生
53+阅读 · 2019年4月28日
论文浅尝 | 区分概念和实例的知识图谱嵌入方法
开放知识图谱
17+阅读 · 2019年1月19日
用 LDA 和 LSA 两种方法来降维和做 Topic 建模
AI研习社
13+阅读 · 2018年8月24日
线性回归:简单线性回归详解
专知
12+阅读 · 2018年3月10日
回归预测&时间序列预测
GBASE数据工程部数据团队
43+阅读 · 2017年5月17日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
72+阅读 · 2016年11月26日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员