We study a linear high-dimensional regression model in a semi-supervised setting, where for many observations only the vector of covariates $X$ is given with no response $Y$. We do not make any sparsity assumptions on the vector of coefficients, and aim at estimating Var$(Y|X)$. We propose an estimator, which is unbiased, consistent, and asymptotically normal. This estimator can be improved by adding zero-estimators arising from the unlabelled data. Adding zero-estimators does not affect the bias and potentially can reduce variance. In order to achieve optimal improvement, many zero-estimators should be used, but this raises the problem of estimating many parameters. Therefore, we introduce covariate selection algorithms that identify which zero-estimators should be used in order to improve the above estimator. We further illustrate our approach for other estimators, and present an algorithm that improves estimation for any given variance estimator. Our theoretical results are demonstrated in a simulation study.


翻译:我们在一个半监督的环境中研究一个线性高维回归模型,对于许多观测来说,只有共变的矢量X$得到没有响应的美元。我们没有对系数的矢量做任何夸度假设,我们的目标是估计Var$(Y ⁇ X),我们建议一个不偏袒、一致和无症状的测算器。这个测算器可以通过增加无标签数据产生的零估计值来改进。添加零估计值不会影响偏差,而且有可能减少差异。为了实现最佳的改进,应当使用许多零估计值,但这提出了估计许多参数的问题。因此,我们采用共变选择算法,确定应使用哪些零估计值来改进上述估计值。我们进一步为其他估计者说明我们的方法,并提出一种改进任何差异估计值的算法。我们的理论结果在模拟研究中得到了证明。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
已删除
将门创投
5+阅读 · 2019年4月4日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Arxiv
0+阅读 · 2021年10月21日
Arxiv
0+阅读 · 2021年10月21日
Arxiv
0+阅读 · 2021年10月16日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年4月4日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Top
微信扫码咨询专知VIP会员