Affine sum-of-ranks minimization (ASRM) generalizes the affine rank minimization (ARM) problem from matrices to tensors. Here, the interest lies in the ranks of a family $\mathcal{K}$ of different matricizations. Transferring our priorly discussed results on asymptotic log-det rank minimization, we show that iteratively reweighted least squares with weight strength $p = 0$ remains a, theoretically and practically, particularly viable method denoted as $\mathrm{IRLS}$-$0\mathcal{K}$. As in the matrix case, we prove global convergence of asymptotic minimizers of the log-det sum-of-ranks function to desired solutions. Further, we show local convergence of $\mathrm{IRLS}$-$0\mathcal{K}$ in dependence of the rate of decline of the therein appearing regularization parameter $\gamma \searrow 0$. For hierarchical families $\mathcal{K}$, we show how an alternating version ($\mathrm{AIRLS}$-$0\mathcal{K}$, related to prior work under the name $\mathrm{SALSA}$) can be evaluated solely through tensor tree network based operations. The method can thereby be applied to high dimensions through the avoidance of exponential computational complexity. Further, the otherwise crucial rank adaption process becomes essentially superfluous even for completion problems. In numerical experiments, we show that the therefor required subspace restrictions and relaxation of the affine constraint cause only a marginal loss of approximation quality. On the other hand, we demonstrate that $\mathrm{IRLS}$-$0\mathcal{K}$ allows to observe the theoretical phase transition also for generic tensor recoverability in practice. Concludingly, we apply $\mathrm{AIRLS}$-$0\mathcal{K}$ to larger scale problems.


翻译:缩略图 最小化 缩略图 (ASRM) 一般地将 缩略图 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 的 缩略图 3 。 此外,我们将先前讨论过的 缩略图 3 的 缩略图 3 的 缩略图 3 3 的 缩略图 3 3 的 缩略图 3 的 缩略图

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年7月27日
专知会员服务
15+阅读 · 2021年5月21日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
已删除
将门创投
4+阅读 · 2020年6月12日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年8月30日
Arxiv
0+阅读 · 2021年8月28日
Arxiv
0+阅读 · 2021年8月26日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
4+阅读 · 2020年6月12日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员