In this article, we introduce a kernel-based consensual aggregation method for regression problems. We aim to flexibly combine individual regression estimators $r_1,r_2,...,r_M$ using a weighted average where the weights are defined based on some kernel function. It may be seen as a kernel smoother method implemented on the features of predictions, given by all the individual estimators, instead of the original inputs. This work extends the context of Biau et al. (2016) to a more general kernel-based framework. We show that this configuration asymptotically inherits the consistency property of the basic consistent estimators. Moreover, we propose to numerically learn the key parameter of the method using a gradient descent algorithm for a suitable choice of kernel functions instead of using the classical grid search algorithm. The numerical experiments carried out on several simulated and real datasets suggest that the performance of the method is improved with the introduction of kernel functions.


翻译:在本篇文章中,我们引入了一种基于内核的回归问题共识聚合方法。 我们的目标是在根据内核功能确定加权值时,使用加权平均值,灵活地将个人回归估计值 $r_1,r_2,...,r_M$结合起来。 这可能被视为一种根据预测特征实施的内核平滑法, 由所有个人估算器提供, 而不是原始输入。 这项工作将Biau 等人(2016年) 的背景扩展至一个更普遍的内核框架。 我们显示, 这种配置在瞬间继承了基本一致估测器的一致性属性。 此外, 我们提议使用梯度下位算法来从数字上学习该方法的关键参数, 以适当选择内核功能, 而不是使用古典的网格搜索算法。 在若干模拟和实际数据集上进行的数字实验表明, 该方法的性能随着内核功能的引入而得到改善。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
52+阅读 · 2020年9月7日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
语义分割 | context relation
极市平台
8+阅读 · 2019年2月9日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年4月21日
Arxiv
0+阅读 · 2021年4月19日
Arxiv
9+阅读 · 2020年10月29日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
52+阅读 · 2020年9月7日
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
语义分割 | context relation
极市平台
8+阅读 · 2019年2月9日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员