Cross-validation is a widely-used technique to estimate prediction error, but its behavior is complex and not fully understood. Ideally, one would like to think that cross-validation estimates the prediction error for the model at hand, fit to the training data. We prove that this is not the case for the linear model fit by ordinary least squares; rather it estimates the average prediction error of models fit on other unseen training sets drawn from the same population. We further show that this phenomenon occurs for most popular estimates of prediction error, including data splitting, bootstrapping, and Mallow's Cp. Next, the standard confidence intervals for prediction error derived from cross-validation may have coverage far below the desired level. Because each data point is used for both training and testing, there are correlations among the measured accuracies for each fold, and so the usual estimate of variance is too small. We introduce a nested cross-validation scheme to estimate this variance more accurately, and show empirically that this modification leads to intervals with approximately correct coverage in many examples where traditional cross-validation intervals fail. Lastly, our analysis also shows that when producing confidence intervals for prediction accuracy with simple data splitting, one should not re-fit the model on the combined data, since this invalidates the confidence intervals.


翻译:交叉校准是用来估计预测误差的一种广泛使用的方法,但其行为是复杂和不完全理解的。 理想的是,人们会认为交叉校准估计手头模型的预测误差符合培训数据。 我们证明,对于适合普通最小方格的线性模型来说,情况并非如此; 而是估计适合同一人群的其他无形培训组的模型的平均预测误差。 我们进一步显示,这种现象发生在大多数流行的预测误差估计中,包括数据分离、靴式和Mallow的Cp。 其次,交叉校准产生的预测误差标准信任间隔的覆盖面可能远远低于理想水平。 由于每个数据点都用于培训和测试,每个折叠的测度与每个折数之间都有关联,因此通常的差异估计太小。 我们采用了嵌套的交叉校准办法,更准确地估计这一差异,并用经验显示,在传统交叉校准间隔期间失败的许多例子中,这种修改导致大致正确的间隔。 最后,我们的分析还表明,由于每个数据都用于培训和测试,因此,自这一精确度预测产生一次数据以来,这种测空的模型也表明,这种数据应该不断更新。

0
下载
关闭预览

相关内容

【斯坦福CS224W】知识图谱推理,84页ppt
专知会员服务
119+阅读 · 2021年2月19日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
159+阅读 · 2020年1月16日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Dimension-Free Empirical Entropy Estimation
Arxiv
0+阅读 · 2021年5月27日
Arxiv
0+阅读 · 2021年5月25日
Arxiv
4+阅读 · 2018年3月14日
VIP会员
相关资讯
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Top
微信扫码咨询专知VIP会员