Non-parametric estimation of functions as well as their derivatives by means of local-polynomial regression is a subject that was studied in the literature since the late 1970's. Given a set of noisy samples of a $\mathcal{C}^k$ smooth function, we perform a local polynomial fit, and by taking its $m$-th derivative we obtain an estimate for the $m$-th function derivative. The known optimal rates of convergence for this problem for a $k$-times smooth function $f:\mathbb{R}^d \to \mathbb{R}$ are $n^{-\frac{k-m}{2k + d}}$. However in modern applications it is often the case that we have to estimate a function operating to $\mathbb{R}^D$, for $D \gg d$ extremely large. In this work, we prove that these same rates of convergence are also achievable by local-polynomial regression in case of a high dimensional target, given some assumptions on the noise distribution. This result is an extension to Stone's seminal work from 1980 to the regime of high-dimensional target domain. In addition, we unveil a connection between the failure probability $\varepsilon$ and the number of samples required to achieve the optimal rates.


翻译:从1970年代后期以来,文献中研究的一个课题就是对功能及其衍生物的非参数估计,以及以当地-球状回归方式对函数及其衍生物的非参数估计。鉴于一系列以美元=mathcal{C ⁇ {c ⁇ k+ ⁇ $平滑功能的吵闹样本,我们执行的是当地多元性功能,我们通过使用其第一种产物美元=美元=美元=第一种衍生物的估算,我们获得了对美元=美元=美元=美元=第一种函数衍生物的估算。在这项工作中,我们证明,由于对噪音分布的一些假设,对于一个高维度的功能来说,对于这一问题,当地-球状回归的已知最佳趋同率也是可以实现的。在现代应用中,我们常常不得不估计一个函数的运行量为$\mathb{R ⁇ D$,对于美元=gg=d$非常大。我们证明,在噪声分布的某些假设下,这些趋同率也是通过地方-球状回归实现的高维度目标的实现的。这是从1980年高位标值=Slalalalalalal 的概率,这是从1980年高标准到美元=Silentalalbilxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
159+阅读 · 2020年1月16日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
sklearn 与分类算法
人工智能头条
7+阅读 · 2019年3月12日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Logistic回归第二弹——Softmax Regression
机器学习深度学习实战原创交流
9+阅读 · 2015年10月29日
Logistic回归第一弹——二项Logistic Regression
机器学习深度学习实战原创交流
3+阅读 · 2015年10月22日
Arxiv
0+阅读 · 2021年9月14日
Arxiv
0+阅读 · 2021年9月13日
Arxiv
0+阅读 · 2021年9月11日
Arxiv
0+阅读 · 2021年9月10日
Arxiv
0+阅读 · 2021年9月10日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
159+阅读 · 2020年1月16日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
sklearn 与分类算法
人工智能头条
7+阅读 · 2019年3月12日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Logistic回归第二弹——Softmax Regression
机器学习深度学习实战原创交流
9+阅读 · 2015年10月29日
Logistic回归第一弹——二项Logistic Regression
机器学习深度学习实战原创交流
3+阅读 · 2015年10月22日
Top
微信扫码咨询专知VIP会员