Joint diagonalization of a set of positive (semi)-definite matrices has a wide range of analytical applications, such as estimation of common principal components, estimation of multiple variance components, and blind signal separation. However, when the eigenvectors of involved matrices are not the same, joint diagonalization is a computationally challenging problem. To the best of our knowledge, currently existing methods require at least $O(KN^3)$ time per iteration, when $K$ different $N \times N$ matrices are considered. We reformulate this optimization problem by applying orthogonality constraints and dimensionality reduction techniques. In doing so, we reduce the computational complexity for joint diagonalization to $O(N^3)$ per quasi-Newton iteration. This approach we refer to as JADOC: Joint Approximate Diagonalization under Orthogonality Constraints. We compare our algorithm to two important existing methods and show JADOC has superior runtime while yielding a highly similar degree of diagonalization. The JADOC algorithm is implemented as open-source Python code, available at https://github.com/devlaming/jadoc.


翻译:一组正(semi)- 确定基质的联合二进制(semi)- 确定基质的联合二进制具有广泛的分析应用,例如对共同主要组成部分的估计,对多种差异组成部分的估计,以及盲点信号分离等。然而,当所涉矩阵的分解元体不同时,联合二进制是一个计算上具有挑战性的问题。据我们所知,目前采用的方法要求每转录至少需要O(KN3)3美元的时间,如果考虑的是不同的美元N美元时,则每转录至少需要1美元(KN3)3美元。我们通过应用正方位限制和维度减少技术重新配置这一优化问题。在这样做时,我们将联合对二进制的计算复杂性降低到每准- Newton 迭代号$($3) 。我们称之为 JADOC: 在Othoconomicaldalizalizionalizionalizalization) 。我们将我们的算法比对两种重要的现有方法,并显示JADOC的运行时间优,同时产生高度相似的二进调化程度。JADADODOC算算算法,在 MADDGUDUDI/ ALms/ apps.

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
22+阅读 · 2021年4月10日
【AAAI2021】 层次图胶囊网络
专知会员服务
82+阅读 · 2020年12月18日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
6+阅读 · 2021年6月24日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
22+阅读 · 2021年4月10日
【AAAI2021】 层次图胶囊网络
专知会员服务
82+阅读 · 2020年12月18日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员