Incomplete factorization is a widely used preconditioning technique for Krylov subspace methods for solving large-scale sparse linear systems. Its multilevel variants, such as ILUPACK, are more robust for many symmetric or unsymmetric linear systems than the traditional, single-level incomplete LU (or ILU) techniques. However, the previous multilevel ILU techniques still lacked robustness and efficiency for some large-scale saddle-point problems, which often arise from systems of partial differential equations (PDEs). We introduce HILUCSI, or Hierarchical Incomplete LU-Crout with Scalability-oriented and Inverse-based dropping. As a multilevel preconditioner, HILUCSI statically and dynamically permutes individual rows and columns to the next level for deferred factorization. Unlike ILUPACK, HILUCSI applies symmetric preprocessing techniques at the top levels but always uses unsymmetric preprocessing and unsymmetric factorization at the coarser levels. The deferring combined with mixed preprocessing enabled a unified treatment for nearly or partially symmetric systems, and simplified the implementation by avoiding mixed 1\times1 and 2\times2 pivots for symmetric indefinite systems. We show that this combination improves robustness for indefinite systems without compromising efficiency. Furthermore, to enable superior efficiency for large-scale systems with millions or more unknowns, HILUCSI introduces a scalability-oriented dropping in conjunction with a variant of inverse-based dropping. We demonstrate the effectiveness of HILUCSI for dozens of benchmark problems, including those from the mixed formulation of the Poisson equation, Stokes equations, and Navier-Stokes equations. We also compare its performance with ILUPACK, the supernodal ILUTP in SuperLU, and multithreaded direct solvers in PARDISO and MUMPS.


翻译:不完全的因子化是用于解决大规模分散线性系统的Krylov亚空间方法的一种广泛使用的先决条件技术。 它的多层次变体,如ILUPACK, 相对于传统、单级不完全LU(或ILU)技术而言,对于许多对称或不对称线性系统来说,比传统、单级不完全LU(或ILUU)技术更为强大。 然而, 以前的多层次ILU技术对于一些大型马垫点问题仍然缺乏坚固和效率, 这些问题经常产生于部分差异方程(PDE) 系统。 我们引入了HILUSI, 或高等级的LUU, 与具有可缩缩缩缩缩式的LULR(含缩略式)路径, 也以混合的预处理方式, 包括高或部分的IMLIL(含软式)的硬性能性能性能性能。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
32+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
MIT新书《强化学习与最优控制》
专知会员服务
279+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
已删除
将门创投
8+阅读 · 2019年1月4日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年3月18日
Arxiv
0+阅读 · 2021年3月17日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
已删除
将门创投
8+阅读 · 2019年1月4日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员