We introduce an estimation method of covariance matrices in a high-dimensional setting, i.e., when the dimension of the matrix, , is larger than the sample size . Specifically, we propose an orthogonally equivariant estimator. The eigenvectors of such estimator are the same as those of the sample covariance matrix. The eigenvalue estimates are obtained from an adjusted profile likelihood function derived by approximating the integral of the density function of the sample covariance matrix over its eigenvectors, which is a challenging problem in its own right. Exact solutions to the approximate likelihood equations are obtained and employed to construct estimates that involve a tuning parameter. Bootstrap and cross-validation based algorithms are proposed to choose this tuning parameter under various loss functions. Finally, comparisons with two well-known orthogonally equivariant estimators of the covariance matrix are given, which are based on Monte-Carlo risk estimates for simulated data and misclassification errors in real data analyses. In addition, Monte-Carlo risk estimates are also provided to compare our estimates of eigenvalues to those of a consistent estimator of population eigenvalues.


翻译:在高维设置中,即当矩阵的尺寸大于样本大小时,我们采用共变矩阵的估计方法,即当矩阵的尺寸大于样本大小时,我们采用一种估计方法。具体地说,我们建议采用一个正方位正方位等异异异静测仪。这种估计值的源数与样本共变矩阵的值相同。这种估计值是从一个调整的剖面概率函数中得出的,该参数是样本共变矩阵的密度函数的内含性,它本身就是一个具有挑战性的问题。我们获得了对近似可能性方程式的精确解决办法,并用于构建涉及调值的估计数。建议根据各种损失函数选择这一调值。最后,根据Monte-Carlo对调异常态矩阵中两个广为人知的或正方位均匀估测值,根据对模拟数据的风险估计数和真实数据值中的误差,提供了对人口估计值的连续比较。此外,还提供了对人口估计值的蒙特-卡洛估计值与这些数值的一致的比较。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
159+阅读 · 2020年1月16日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
10+阅读 · 2018年5月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
5+阅读 · 2017年12月14日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
10+阅读 · 2018年5月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员