Gauss-Seidel (GS) relaxation is often employed as a preconditioner for a Krylov solver or as a smoother for Algebraic Multigrid (AMG). However, the requisite sparse triangular solve is difficult to parallelize on many-core architectures such as graphics processing units (GPUs). In the present study, the performance of the traditional GS relaxation based on a triangular solve is compared with two-stage variants, replacing the direct triangular solve with a fixed number of inner Jacobi-Richardson (JR) iterations. When a small number of inner iterations is sufficient to maintain the Krylov convergence rate, the two-stage GS (GS2) often outperforms the traditional algorithm on many-core architectures. We also compare GS2 with JR. When they perform the same number of flops for SpMV (e.g. three JR sweeps compared to two GS sweeps with one inner JR sweep), the GS2 iterations, and the Krylov solver preconditioned with GS2, may converge faster than the JR iterations. Moreover, for some problems (e.g. elasticity), it was found that JR may diverge with a damping factor of one, whereas two-stage GS may improve the convergence with more inner iterations. Finally, to study the performance of the two-stage smoother and preconditioner for a practical problem, %(e.g. using tuned damping factors), these were applied to incompressible fluid flow simulations on GPUs.


翻译:Gaus- Seidel (GS) 放松常被用作 Krylov 解析器的先决条件, 或用于 Algebraic Multigrid (AMG) 的平滑。 然而, 必要的稀薄三角解决方案很难在像图形处理器( GPUs) 这样的许多核心结构中平行。 在本研究中, 基于三角解决方案的传统GS放松的性能与两阶段变量相比, 以固定数量的内部 Jacobi- Richardson (JR) 版本取代直接三角解决方案。 当少量内部循环足以维持 Krylov 的趋同率时, 两阶段的GS( GS 2) 通常会超过多个核心结构的传统算法 。 我们还将 GS2 与 JR 比较。 当它们执行相同数量的 Spmmlvad( 例如, 三个 JR 扫荡器) 和两个GS 扫荡器的问题相比, 以一个内部 JR 扫荡器( JS2 ) 的平流和 Krylov 预设的流可能比 JR 的平流要快一些 。 。 最后, 和在两个阶段中找到了 的变压中找到了 。 。 。 。 对于某些的 的 的,, 的 变压 的 的 变动的 变动的 变动的 变变变变变变变变变的 。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
专知会员服务
52+阅读 · 2020年9月7日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
已删除
将门创投
10+阅读 · 2019年3月6日
VIP会员
相关VIP内容
最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
专知会员服务
52+阅读 · 2020年9月7日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
已删除
将门创投
10+阅读 · 2019年3月6日
Top
微信扫码咨询专知VIP会员