In this paper, we propose a two-level block preconditioned Jacobi-Davidson (BPJD) method for efficiently solving discrete eigenvalue problems resulting from finite element approximations of $2m$th ($m = 1, 2$) order symmetric elliptic eigenvalue problems. Our method works effectively to compute the first several eigenpairs, including both multiple and clustered eigenvalues with corresponding eigenfunctions, particularly. The method is highly parallelizable by constructing a new and efficient preconditioner using an overlapping domain decomposition (DD). It only requires computing a couple of small scale parallel subproblems and a quite small scale eigenvalue problem per iteration. Our theoretical analysis reveals that the convergence rate of the method is bounded by $c(H)(1-C\frac{\delta^{2m-1}}{H^{2m-1}})^{2}$, where $H$ is the diameter of subdomains and $\delta$ is the overlapping size among subdomains. The constant $C$ is independent of the mesh size $h$ and the internal gaps among the target eigenvalues, demonstrating that our method is optimal and cluster robust. Meanwhile, the $H$-dependent constant $c(H)$ decreases monotonically to $1$, as $H \to 0$, which means that more subdomains lead to the better convergence rate. Numerical results supporting our theory are given.


翻译:在本文中,我们提出了一种基于两层块预条件的Jacobi-Davidson (BPJD)方法,用于高效地解决由有限元逼近的 $2m$ 阶($m=1,2$) 对称椭圆特征值问题所得到的离散特征值问题。我们的方法可以有效地计算前几个特征值对和特征函数,特别是包括多个和聚类的特征值。该方法通过使用重叠区域分解 (DD) 构建新的高效预处理器,可以高度并行化。每次迭代只需要计算几个小型并行子问题和一个相当小的特征值问题。我们的理论分析表明,该方法的收敛速度由 $c(H)(1-C\frac{\delta^{2m-1}}{H^{2m-1}})^{2}$ 限制,其中 $H$ 是子域的直径,$\delta$ 是子域之间的重叠大小。常数 $C$ 不依赖于网格大小 $h$ 和目标特征值之间的间隔,表明我们的方法是最优且聚类鲁棒的。同时,$H$ 依赖的常数 $c(H)$ 会随着 $H\to 0$ 单调递减到 $1$,这意味着更多的子域会导致更好的收敛速度。我们给出了支持我们理论的数值结果。

0
下载
关闭预览

相关内容

【NeurIPS2022】GENIE:高阶去噪扩散求解器
专知会员服务
17+阅读 · 2022年11月13日
【硬核书】矩阵代数基础,248页pdf
专知会员服务
83+阅读 · 2021年12月9日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
专知会员服务
123+阅读 · 2020年9月8日
专知会员服务
42+阅读 · 2020年7月7日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
已删除
将门创投
14+阅读 · 2019年5月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月26日
VIP会员
相关VIP内容
【NeurIPS2022】GENIE:高阶去噪扩散求解器
专知会员服务
17+阅读 · 2022年11月13日
【硬核书】矩阵代数基础,248页pdf
专知会员服务
83+阅读 · 2021年12月9日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
专知会员服务
123+阅读 · 2020年9月8日
专知会员服务
42+阅读 · 2020年7月7日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员