This paper establishes bounds on the performance of empirical risk minimization for large-dimensional linear regression. We generalize existing results by allowing the data to be dependent and heavy-tailed. The analysis covers both the cases of identically and heterogeneously distributed observations. Our analysis is nonparametric in the sense that the relationship between the regressand and the regressors is assumed to be unknown. The main results of this paper indicate that the empirical risk minimizer achieves the optimal performance (up to a logarithmic factor) in a dependent data setting.


翻译:本文为大维线性回归最小化实验风险的性能设定了界限。 我们通过允许数据依附和重尾细化来概括现有结果。 分析涵盖了相同和不同分布的观测情况。 我们的分析是非对称的,因为假设回归和递减者之间的关系不明。 本文件的主要结果表明,经验风险最小化器在依赖性数据设置中实现了最佳性能(达到对数系数)。

0
下载
关闭预览

相关内容

经验风险最小化(ERM)是统计学习理论中的一个原则,它定义了一系列学习算法,并用于给出其性能的理论界限。经验风险最小化的策略认为,经验风险最小的模型是最优的模型。根据这一策略,按照经验风险最小化求最优模型就是求解最优化问题。
专知会员服务
14+阅读 · 2021年5月21日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
52+阅读 · 2020年9月7日
【实用书】数据科学基础,484页pdf,Foundations of Data Science
专知会员服务
117+阅读 · 2020年5月28日
专知会员服务
61+阅读 · 2020年3月4日
已删除
将门创投
7+阅读 · 2020年3月13日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月11日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
已删除
将门创投
7+阅读 · 2020年3月13日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员