Computing the null space of a large sparse matrix $A$ is a challenging computational problem, especially if the nullity -- the dimension of the null space -- is not small. When applying a block Lanczos method to $A^\mathsf{T} A$ for this purpose, conventional wisdom suggests to use a block size $d$ that is not smaller than the nullity. In this work, we show how randomness can be utilized to allow for smaller $d$ without sacrificing convergence or reliability. Even $d = 1$, corresponding to the standard single-vector Lanczos method, becomes a safe choice. This is achieved by using a small random diagonal perturbation, which moves the zero eigenvalues of $A^\mathsf{T} A$ away from each other, and a random initial guess. We analyze the effect of the perturbation on the attainable quality of the null space and derive convergence results that establish robust convergence for $d=1$. As demonstrated by our numerical experiments, a smaller block size combined with restarting and partial reorthogonalization results in reduced memory requirements and computational effort. It also allows for the incremental computation of the null space, without requiring a priori knowledge of the nullity. Our algorithm is best suited for situations when the nullity of $A$ is moderate.


翻译:计算大型稀疏矩阵 $A$ 的零空间是一个具有挑战性的计算问题,尤其当零度——即零空间的维数——较大时。为求解此问题而对 $A^\\mathsf{T} A$ 应用分块Lanczos方法时,传统观点建议使用不小于零度的分块大小 $d$。本文展示了如何利用随机性来允许使用更小的 $d$,同时不牺牲收敛性或可靠性。即使 $d = 1$(对应于标准的单向量Lanczos方法)也能成为安全的选择。这是通过使用一个小的随机对角扰动(该扰动使 $A^\\mathsf{T} A$ 的零特征值彼此分离)以及一个随机初始猜测来实现的。我们分析了扰动对可达到的零空间质量的影响,并推导了收敛性结果,这些结果确立了 $d=1$ 时的鲁棒收敛性。正如我们的数值实验所展示的,较小的分块大小结合重启和部分重正交化,能够降低内存需求和计算量。它还允许在不需预先知道零度的情况下增量计算零空间。我们的算法最适用于矩阵 $A$ 的零度适中的情况。

0
下载
关闭预览

相关内容

【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
RL解决'BipedalWalkerHardcore-v2' (SOTA)
CreateAMind
31+阅读 · 2019年7月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
18+阅读 · 2021年3月16日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
Augmentation for small object detection
Arxiv
13+阅读 · 2019年2月19日
VIP会员
相关资讯
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
RL解决'BipedalWalkerHardcore-v2' (SOTA)
CreateAMind
31+阅读 · 2019年7月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关论文
Arxiv
18+阅读 · 2021年3月16日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
Augmentation for small object detection
Arxiv
13+阅读 · 2019年2月19日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员