In the regression problem, we consider the problem of estimating the variance function by the means of aggregation methods. We focus on two particular aggregation setting: Model Selection aggregation (MS) and Convex aggregation (C) where the goal is to select the best candidate and to build the best convex combination of candidates respectively among a collection of candidates. In both cases, the construction of the estimator relies on a two-step procedure and requires two independent samples. The first step exploits the first sample to build the candidate estimators for the variance function by the residual-based method and then the second dataset is used to perform the aggregation step. We show the consistency of the proposed method with respect to the L 2error both for MS and C aggregations. We evaluate the performance of these two methods in the heteroscedastic model and illustrate their interest in the regression problem with reject option.


翻译:在回归问题中,我们考虑通过汇总方法估计差异函数的问题。我们侧重于两个特定的汇总设置:模型甄选汇总(MS)和Convex汇总(C),目标是分别选择最佳候选人和在候选人集中建立最佳候选人组合;在这两种情况下,估算器的构建都依靠两步程序,需要两个独立的样本。第一步利用第一个样本,用残余法构建候选人差异函数估计器,然后用第二个数据集来实施汇总步骤。我们显示了拟议方法在MS和C群中对于L2eror的一致性。我们用拒绝选项来评估这两个方法在超峰模型中的性能,并表明他们对回归问题的兴趣。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
逻辑回归(Logistic Regression) 模型简介
全球人工智能
5+阅读 · 2017年11月1日
Arxiv
0+阅读 · 2021年11月25日
VIP会员
Top
微信扫码咨询专知VIP会员