In this paper we propose a convolution estimator for estimating the density of a response variable that employs an underlying multiple regression framework to enhance the accuracy of the estimates through the incorporation of auxiliary information. Suppose we have a sample of $N$ observations of a response variable and an associated set of covariates, along with an additional auxiliary sample featuring $M$ observations of the covariates only. We prove that the mean square error of the multiple regression-enhanced estimator converges as $O(N^{-1})$, and additionally, for a large fixed $N$, the mean square error converges as $O(M^{-4/5})$ before eventually tailing off as a saturation point is reached. Thus, while the incorporation of auxiliary covariate information isn't quite as effective as incorporating more complete case information, it nevertheless allows for significant improvements in accuracy. In contrast to convolution estimators based on the Nadaraya-Watson estimator for a nonlinear regression model, the convolution estimator proposed herein utilizes the ordinary least squares estimator for a multiple linear regression model. While this type of underlying estimator is not suited to strongly nonlinear data, its strength lies in the fact that it allows the multiple regression-enhanced convolution estimator to provide better performance on data that is generally linear or well fit by low order polynomials, since the ordinary least squares estimator estimator does not suffer from the curse of dimensionality and does not require one to choose hyperparameters. The estimator proposed in this paper is particularly useful estimating the density of a response variable that is challenging to measure, while being in possession of a large amount of auxiliary information. In fact, an application of this type from the field of ophthalmology motivated our work in this paper.


翻译:在本文中, 我们提出一个共变估算器, 用于估计响应变量的密度, 该变量使用一个基本的多重回归框架, 通过整合辅助信息来提高估算的准确性。 假设我们有一个对响应变量和相关共变数的抽样, 以及一个额外辅助样本, 仅包含共变数的观测$M美元。 我们证明, 多次回归增强的估算器的平均平方差是 $O (N ⁇ -1}) 美元, 另外, 对于一个大固定的 美元, 平均平方差会以普通的 美元( M ⁇ -4/5} 美元相交, 以便提高估算结果的准确性能。 辅助共变数信息的整合非常有效, 但也允许更完整的案件信息整合。 与基于 Nadaraya- Watson 的 递增缩缩缩缩图的平方位估测器相比, 此处提议的平方平方差错误会以普通的最小的平方差( $O (M) 4- 4/5 美元 美元) 相交汇, 最终尾推算器会以最不固定的平的平面的平局状态来评估数据, 而非的平局数据在多个平局的平局数据中, 要求一个更精确的平局的平局的平局的平局的平局的计算法, 的平局的平局的平局的平的计算法, 使得算法的平, 使得的平, 的平的平的平的平的平的平的平的平的平的平的平, 使这个模型的平的平的平, 的平的平的平的平的平的平的平, 使得的平的平的平的平的平的平的平的平的平的平的平, 使得的平的平的平的平的平的平的平的平的平的平, 使得的平的平的平的平的平的平, 使得的平, 使得的平, 使得的平的平的平的平的平, 使得的平的平的平的平的平的平的平的平的平的平的平的平, 使得的平的平的平的平的平的平的平的平的平,

0
下载
关闭预览

相关内容

专知会员服务
102+阅读 · 2020年12月31日
图神经网络综述 (中文版),14页pdf
专知会员服务
330+阅读 · 2020年11月24日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
VIP会员
相关VIP内容
专知会员服务
102+阅读 · 2020年12月31日
图神经网络综述 (中文版),14页pdf
专知会员服务
330+阅读 · 2020年11月24日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员