We consider a general functional linear regression model, allowing for both functional and high-dimensional vector covariates. Furthermore, the proposed model can accommodate discretized observations of functional variables and different reproducing kernel Hilbert spaces (RKHS) for the functional regression coefficients. Based on this general setting, we propose a penalized least squares approach in RKHS, where the penalties enforce both smoothness and sparsity on the functional estimators. We also show that the excess prediction risk of our estimators is minimax optimal under this general model setting. Our analysis reveals an interesting phase transition phenomenon and the optimal excess risk is determined jointly by the sparsity and the smoothness of the functional regression coefficients. We devise a novel optimization algorithm, simultaneously handling the smoothness and sparsity penalization.


翻译:我们考虑的是通用功能线性回归模型,允许功能性和高维矢量共变。此外,拟议的模型可以包含功能变量的分散观测和功能回归系数的不同复制核心赫伯特空间(RKHS ) 。基于这一总体背景,我们建议了RKHS中受罚的最低方位方法,该方法的处罚对功能估算器实施平滑和宽度。我们还表明,在这一总体模型设置下,我们估算器的超额预测风险是最小最大最佳的。我们的分析揭示了有趣的阶段过渡现象,而最佳超额风险是由功能回归系数的宽度和平稳性共同决定的。我们设计了一种新型优化算法,同时处理平稳和宽度处罚。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
专知会员服务
158+阅读 · 2020年1月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年1月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员