In order to compute the best low-rank tensor approximation using the Multilinear Tensor Decomposition (MTD) model, it is essential to estimate the rank of the underlying multilinear tensor from the noisy observation tensor. In this paper, we propose a Robust MTD (R-MTD) method, which jointly estimates the multilinear rank and the loading matrices. Based on the low-rank property and an over-estimation of the core tensor, this joint estimation problem is solved by promoting (group) sparsity of the over-estimated core tensor. Group sparsity is promoted using mixed-norms. Then we establish a link between the mixed-norms and the nuclear norm, showing that mixed-norms are better candidates for a convex envelope of the rank. After several iterations of the Alternating Direction Method of Multipliers (ADMM), the Minimum Description Length (MDL) criterion computed from the eigenvalues of the unfolding matrices of the estimated core tensor is minimized in order to estimate the multilinear rank. The latter is then used to estimate more accurately the loading matrices. We further develop another R-MTD method, called R-OMTD, by imposing an orthonormality constraint on each loading matrix in order to decrease the computation complexity. A series of simulated noisy tensor and real-world data are used to show the effectiveness of the proposed methods compared with state-of-the-art methods.


翻译:为了使用多线性Tensor分解(MTD)模型来计算最低水平的粒度近似值,必须估计来自噪音观测高点的多线性振幅的底部多线性强的等级。 在本文中,我们建议采用强性MTD(R-MTD)方法,该方法共同估计多线性级和装货矩阵。根据低级特性和对核心粒度的过高估计,通过推广(组)高估核心振幅的广度来解决这一联合估计问题。利用混合的调调调来推动群体聚。然后,我们在混合的中点和核规范之间建立了联系,表明混合的调调(R-MTD)是更适合等级的。在对多线性向方向方向方向制导法(A-M)进行多次反复反复反复反复反复反复反复反复的反复反复反复反复反复的反复反复解释之后,从估算的核心阵列的基质阵列的易变缩(MDL)标准被进一步缩小,以便估算多线性阵列的等级。然后,我们用另一种压式的压式的压式方法来精确地进行。

0
下载
关闭预览

相关内容

专知会员服务
76+阅读 · 2021年3月16日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
LeetCode的C++ 11/Python3 题解及解释
专知
16+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Low-rank Matrix Recovery With Unknown Correspondence
Arxiv
0+阅读 · 2021年10月15日
Arxiv
9+阅读 · 2021年3月8日
VIP会员
相关VIP内容
专知会员服务
76+阅读 · 2021年3月16日
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
LeetCode的C++ 11/Python3 题解及解释
专知
16+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员