Most high-dimensional matrix recovery problems are studied under the assumption that the target matrix has certain intrinsic structures. For image data related matrix recovery problems, approximate low-rankness and smoothness are the two most commonly imposed structures. For approximately low-rank matrix recovery, the robust principal component analysis (PCA) is well-studied and proved to be effective. For smooth matrix problem, 2d fused Lasso and other total variation based approaches have played a fundamental role. Although both low-rankness and smoothness are key assumptions for image data analysis, the two lines of research, however, have very limited interaction. Motivated by taking advantage of both features, we in this paper develop a framework named projected robust PCA (PRPCA), under which the low-rank matrices are projected onto a space of smooth matrices. Consequently, a large class of image matrices can be decomposed as a low-rank and smooth component plus a sparse component. A key advantage of this decomposition is that the dimension of the core low-rank component can be significantly reduced. Consequently, our framework is able to address a problematic bottleneck of many low-rank matrix problems: singular value decomposition (SVD) on large matrices. Theoretically, we provide explicit statistical recovery guarantees of PRPCA and include classical robust PCA as a special case.


翻译:以目标矩阵具有一定内在结构为假设,对大多数高维矩阵回收问题进行了研究; 关于与图像数据矩阵回收有关的矩阵回收问题,大约低级和平稳是两种最常强加的结构; 对于大约低级的矩阵回收,稳健的主要组成部分分析(PCA)得到很好研究,并证明是有效的; 对于平稳的矩阵问题,2个组合的Lasso和其他基于整体差异的方法发挥了根本作用; 虽然低级和平稳是图像数据分析的关键假设,但两条研究线的互动非常有限。因此,我们利用这两个特点的动力,我们本文开发了一个名为 " 稳健的五氯苯甲醚(PRPCA) " 的框架,根据这个框架,低级的矩阵被预测进入一个平稳的矩阵空间。因此,一大批类型的图像矩阵可以分解为低级和平稳的组件,加上一个稀薄的组件。这种分解的主要优势是,核心低级部分的层面可以大大减少。 因此,我们的框架能够解决许多低级的瓶颈瓶颈,许多低级的基质的基质结构(PRPC)问题:高端的S-Cregal decomstal decommal pral prev(SV) expral pral preva) expractal degresgresgresmstralgalgresgresgresmlgal。

0
下载
关闭预览

相关内容

在统计中,主成分分析(PCA)是一种通过最大化每个维度的方差来将较高维度空间中的数据投影到较低维度空间中的方法。给定二维,三维或更高维空间中的点集合,可以将“最佳拟合”线定义为最小化从点到线的平均平方距离的线。可以从垂直于第一条直线的方向类似地选择下一条最佳拟合线。重复此过程会产生一个正交的基础,其中数据的不同单个维度是不相关的。 这些基向量称为主成分。
专知会员服务
14+阅读 · 2021年5月21日
【CVPR2021】背景鲁棒的自监督视频表征学习
专知会员服务
16+阅读 · 2021年3月13日
专知会员服务
42+阅读 · 2020年12月18日
【NeurIPS 2020】对比学习全局和局部医学图像分割特征
专知会员服务
43+阅读 · 2020年10月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
已删除
将门创投
6+阅读 · 2017年7月6日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年5月30日
Arxiv
0+阅读 · 2021年5月30日
Arxiv
0+阅读 · 2021年5月28日
2nd-order Updates with 1st-order Complexity
Arxiv
0+阅读 · 2021年5月27日
VIP会员
相关VIP内容
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
已删除
将门创投
6+阅读 · 2017年7月6日
Top
微信扫码咨询专知VIP会员