A popular technique for selecting and tuning machine learning estimators is cross-validation. Cross-validation evaluates overall model fit, usually in terms of predictive accuracy. In causal inference, the optimal choice of estimator depends not only on the fitted models but also on assumptions the statistician is willing to make. In this case, the performance of different (potentially biased) estimators cannot be evaluated by checking overall model fit. We propose a model selection procedure that estimates the squared l2-deviation of a finite-dimensional estimator from its target. The procedure relies on knowing an asymptotically unbiased "benchmark estimator" of the parameter of interest. Under regularity conditions, we investigate bias and variance of the proposed criterion compared to competing procedures and derive a finite-sample bound for the excess risk compared to an oracle procedure. The resulting estimator is discontinuous and does not have a Gaussian limit distribution. Thus, standard asymptotic expansions do not apply. We derive asymptotically valid confidence intervals that take into account the model selection step. The performance of the approach for estimation and inference for average treatment effects is evaluated on simulated data sets, including experimental data, instrumental variables settings, and observational data with selection on observables.


翻译:选择和调整机器学习估计值的常用技术是交叉校验。 交叉校验评估整个模型是否合适, 通常是预测准确性。 在因果推断中, 对估计值的最佳选择不仅取决于安装的模型, 也取决于统计员愿意作出的假设。 在这种情况下, 不同的(潜在偏差的)估计值的性能无法通过检查整体模型是否合适来评估。 我们提议了一个模型选择程序, 用来估计一个定值的有限度估计值的平方l2值值。 该程序依赖于了解一个对利息参数的无偏倚的“ 基准估计器 ” 。 在正常情况下, 我们调查拟议标准与竞争程序相比的偏差和差异, 并得出一个与超重风险相连接的限值。 由此得出的估计值是不连续的, 并且没有高分数值的极限分布。 因此, 定值估计值扩展值的扩展值并不适用。 程序依赖于对利息参数的“ 基准”, 我们从一个无偏差的“ 偏差的“ 基准” 估测度“ ” 估测度估算值“ ” ”,, 和 模型中将 数据 估测测值 的 用于 的 的 数据 估测测测值 的 的, 的, 的 和 的 的 的 的 的 的 和 的 的 的 的 的 的 的 模型 的 的 的 的, 的 的 的 的 的 的 的 的 的 的 的 的 的 的, 的,, 和 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的

0
下载
关闭预览

相关内容

因果推断,Causal Inference:The Mixtape
专知会员服务
103+阅读 · 2021年8月27日
专知会员服务
50+阅读 · 2020年12月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
38+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年9月8日
Parameterizing and Simulating from Causal Models
Arxiv
0+阅读 · 2021年9月8日
Arxiv
0+阅读 · 2021年9月6日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员