A popular technique for selecting and tuning machine learning estimators is cross-validation. Cross-validation evaluates overall model fit, usually in terms of predictive accuracy. In causal inference, the optimal choice of estimator depends not only on the fitted models but also on assumptions the statistician is willing to make. In this case, the performance of different (potentially biased) estimators cannot be evaluated by checking overall model fit. We propose a model selection procedure that estimates the squared l2-deviation of a finite-dimensional estimator from its target. The procedure relies on knowing an asymptotically unbiased "benchmark estimator" of the parameter of interest. Under regularity conditions, we investigate bias and variance of the proposed criterion compared to competing procedures and derive a finite-sample bound for the excess risk compared to an oracle procedure. The resulting estimator is discontinuous and does not have a Gaussian limit distribution. Thus, standard asymptotic expansions do not apply. We derive asymptotically valid confidence intervals that take into account the model selection step. The performance of the approach for estimation and inference for average treatment effects is evaluated on simulated data sets, including experimental data, instrumental variables settings, and observational data with selection on observables.
翻译:选择和调整机器学习估计值的常用技术是交叉校验。 交叉校验评估整个模型是否合适, 通常是预测准确性。 在因果推断中, 对估计值的最佳选择不仅取决于安装的模型, 也取决于统计员愿意作出的假设。 在这种情况下, 不同的(潜在偏差的)估计值的性能无法通过检查整体模型是否合适来评估。 我们提议了一个模型选择程序, 用来估计一个定值的有限度估计值的平方l2值值。 该程序依赖于了解一个对利息参数的无偏倚的“ 基准估计器 ” 。 在正常情况下, 我们调查拟议标准与竞争程序相比的偏差和差异, 并得出一个与超重风险相连接的限值。 由此得出的估计值是不连续的, 并且没有高分数值的极限分布。 因此, 定值估计值扩展值的扩展值并不适用。 程序依赖于对利息参数的“ 基准”, 我们从一个无偏差的“ 偏差的“ 基准” 估测度“ ” 估测度估算值“ ” ”,, 和 模型中将 数据 估测测值 的 用于 的 的 数据 估测测测值 的 的, 的, 的 和 的 的 的 的 的 的 和 的 的 的 的 的 的 的 模型 的 的 的 的, 的 的 的 的 的 的 的 的 的 的 的 的 的 的, 的,, 和 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的