This paper considers a large class of problems where we seek to recover a low rank matrix and/or sparse vector from some set of measurements. While methods based on convex relaxations suffer from a (possibly large) estimator bias, and other nonconvex methods require the rank or sparsity to be known a priori, we use nonconvex regularizers to minimize the rank and $l_0$ norm without the estimator bias from the convex relaxation. We present a novel analysis of the alternating proximal gradient descent algorithm applied to such problems, and bound the error between the iterates and the ground truth sparse and low rank matrices. The algorithm and error bound can be applied to sparse optimization, matrix completion, and robust principal component analysis as special cases of our results.


翻译:本文考虑了我们试图从某些测量中恢复低级矩阵和/或稀有矢量的大量问题; 以曲线松动为基础的方法存在(可能很大)估测偏差,以及其他非曲线方法要求先知等级或宽度; 我们使用非曲线正规化方法来尽量减少等级和0.0美元标准,而没有从曲线松动的估测偏差。 我们对适用于这些问题的交替的准梯度梯度下降算法进行了新颖的分析,并约束了河流与地面真理分散和低等级矩阵之间的错误。 算法和误差可以适用于稀有的优化、矩阵完成和强力主要组成部分分析,作为我们结果的特殊案例。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
159+阅读 · 2020年1月16日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年11月18日
Arxiv
3+阅读 · 2018年10月18日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员