Recently, a new variant of the BiCGStab method, known as the pipeline BiCGStab, has been proposed. This method can achieve a higher degree of scalability and speed-up rates through a mechanism in which the communication phase for the computation of the inner product can be overlapped with the computation of the matrix-vector product. On the other hand, there exist several generalized iteration methods with better convergence behavior than BiCGStab such as ssBiCGSafe, BiCGSafe, GPBi-CG. Of these methods, ssBiCGSafe, which requires a single phase of computing inner products per one iteration, is best suited for high-performance computing systems. In this paper, inspired by the success of the pipelined BiCGStab method, we propose variations of the ssBiCGSafe method, in which only one phase of inner product computation per iteration is required and this inner product computation phase can be overlapped with the matrix-vector computation. Through numerical experiments, we show that the proposed methods lead to improvements in convergence behavior and execution time compared to the pipelined BiCGStab and ssBiCGSafe methods.


翻译:最近,提出了称为管道BiCGStab的BiCGStab方法的新变体,该方法可以通过一种机制实现更高程度的可缩放性和加速率,即内部产品计算通信阶段可以与矩阵-矢量器产品的计算重叠;另一方面,存在一些通用的循环法,其趋同行为比比BiCGStab方法(例如SsBiCGSafe,BiCGSafe,GPBI-CG)。在这些方法中,SsBiCGSafe(每循环一次计算内部产品需要单一阶段的计算)最适合于高性能的计算系统。在本文中,由于管道BiCGStab方法的成功,我们建议对SBiCGSafe方法进行修改,其中只要求每循环计算一个内部产品计算阶段,而这一内部产品计算阶段可以与矩阵-矢量计算重叠。我们通过数字实验,表明拟议的方法可以改进聚合行为和执行时间,与管道BiGSC方法相比较。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【2020新书】数据科学与机器学习导论,220页pdf
专知会员服务
80+阅读 · 2020年9月14日
【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Soft-NMS – Improving Object Detection With One Line of Code
统计学习与视觉计算组
6+阅读 · 2018年3月30日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Arxiv
92+阅读 · 2020年2月28日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
3+阅读 · 2018年12月21日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Soft-NMS – Improving Object Detection With One Line of Code
统计学习与视觉计算组
6+阅读 · 2018年3月30日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员