For supervised classification problems, this paper considers estimating the query's label probability through local regression using observed covariates. Well-known nonparametric kernel smoother and $k$-nearest neighbor ($k$-NN) estimator, which take label average over a ball around the query, are consistent but asymptotically biased particularly for a large radius of the ball. To eradicate such bias, local polynomial regression (LPoR) and multiscale $k$-NN (MS-$k$-NN) learn the bias term by local regression around the query and extrapolate it to the query itself. However, their theoretical optimality has been shown for the limit of the infinite number of training samples. For correcting the asymptotic bias with fewer observations, this paper proposes a \emph{local radial regression (LRR)} and its logistic regression variant called \emph{local radial logistic regression~(LRLR)}, by combining the advantages of LPoR and MS-$k$-NN. The idea is quite simple: we fit the local regression to observed labels by taking only the radial distance as the explanatory variable and then extrapolate the estimated label probability to zero distance. The usefulness of the proposed method is shown theoretically and experimentally. We prove the convergence rate of the $L^2$ risk for LRR with reference to MS-$k$-NN, and our numerical experiments, including real-world datasets of daily stock indices, demonstrate that LRLR outperforms LPoR and MS-$k$-NN.
翻译:对于受监督的分类问题,本文考虑使用观察到的 Covatics 来通过本地回归来估计查询的标签概率。 众所周知的非参数内核滑动和美元最接近的邻居( k$- NN) 估计器在查询周围的球体上平均使用标签, 具有一贯性, 特别是对于球体的大半径而言, 却具有模糊的偏差。 要消除这种偏差, 本地多元性回归( LPOR) 和多尺度的美元- NN( MS- $- 美元- NNN) 通过在查询周围的本地回归来了解偏差术语, 将其外推至查询本身。 然而, 它们的理论最佳性日均显示于培训样本的无限数量。 为了用较少的观察来纠正无偏差偏差偏差偏差的偏差, 本文提出一个叫做 emph{ 地方辐射回归( LRRRRR) 和 多尺度 美元( MS- $- 美元) 的逻辑回归, 结合LPRRR 和 MS- 美元 美元 的利 的优势值 。 。 这个想法非常简单的引用的参照: 我们所估计的本地的精确 和 的精确 的精确 的精确, 我们所观察到的精确 的 和 的 的 的 的 的 值的 的 的 的 的 的 的 的 的 的 的 的 的 值 的 的 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 值的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 和 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的