图神经网络由于其强大的表示能力和灵活性最近取得了广泛的关注. 随着图数据规模的增长和显存容量的限制, 基于传统的通用深度学习系统进行图神经网络训练已经难以满足要求, 无法充分发挥GPU设备的性能. 如何高效利用GPU硬件进行图神经网络的训练已经成为了该领域重要的研究问题之一. 传统做法是基于稀疏矩阵乘法, 完成图神经网络中的计算过程, 当面对GPU显存容量限制时, 通过分布式矩阵乘法, 把计算任务分发到每个设备上, 这类方法的主要不足有: (1)稀疏矩阵乘法忽视了图数据本身的稀疏分布特性, 计算效率不高; (2)忽视了GPU本身的计算和访存特性, 无法充分利用GPU硬件. 为了提高训练效率, 现有一些研究通过图采样方法, 减少每轮迭代的计算带价和存储需求, 同时也可以支持灵活的分布式拓展, 但是由于采样随机性和方差, 它们往往会影响训练的模型精度. 为此, 提出了一套面向多GPU的高性能图神经网络训练框架, 为了保证模型精度, 基于全量图进行训练, 探索了不同的多GPU图神经网络切分方案, 研究了GPU上不同的图数据排布对图神经网络计算过程中GPU性能的影响, 并提出了稀疏块感知的GPU访存优化技术. 基于C++和CuDNN实现了该原型系统, 在4个不同的大规模GNN数据集上的实验表明: (1)通过图重排优化, 提高了GPU约40%的缓存命中率, 计算加速比可达2倍; (2)相比于现有系统DGL, 取得了5.8倍的整体加速比.

http://www.jos.org.cn/jos/article/abstract/6647

成为VIP会员查看完整内容
23

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
Transformer推理的全栈优化综述
专知会员服务
82+阅读 · 2023年3月4日
面向算法选择的元学习研究综述
专知会员服务
42+阅读 · 2023年2月11日
ICLR | 训练面向分子模拟的十亿级参数 GNN
专知会员服务
7+阅读 · 2022年6月27日
「知识蒸馏」最新2022研究综述
专知会员服务
121+阅读 · 2022年3月20日
专知会员服务
138+阅读 · 2021年3月30日
专知会员服务
50+阅读 · 2020年12月26日
专知会员服务
114+阅读 · 2020年8月22日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
综述 | 分布式GNN训练算法和系统,35页pdf
图与推荐
5+阅读 · 2022年11月2日
「图神经网络复杂图挖掘」 的研究进展
专知
1+阅读 · 2022年10月23日
太强了! VLDB'22最佳论文:GNN高效训练
图与推荐
0+阅读 · 2022年10月13日
ICLR'22 |「无图」的图神经网络
图与推荐
1+阅读 · 2022年8月25日
「知识蒸馏」最新2022研究综述
专知
3+阅读 · 2022年3月20日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
18+阅读 · 2019年1月16日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
Transformer推理的全栈优化综述
专知会员服务
82+阅读 · 2023年3月4日
面向算法选择的元学习研究综述
专知会员服务
42+阅读 · 2023年2月11日
ICLR | 训练面向分子模拟的十亿级参数 GNN
专知会员服务
7+阅读 · 2022年6月27日
「知识蒸馏」最新2022研究综述
专知会员服务
121+阅读 · 2022年3月20日
专知会员服务
138+阅读 · 2021年3月30日
专知会员服务
50+阅读 · 2020年12月26日
专知会员服务
114+阅读 · 2020年8月22日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
相关资讯
综述 | 分布式GNN训练算法和系统,35页pdf
图与推荐
5+阅读 · 2022年11月2日
「图神经网络复杂图挖掘」 的研究进展
专知
1+阅读 · 2022年10月23日
太强了! VLDB'22最佳论文:GNN高效训练
图与推荐
0+阅读 · 2022年10月13日
ICLR'22 |「无图」的图神经网络
图与推荐
1+阅读 · 2022年8月25日
「知识蒸馏」最新2022研究综述
专知
3+阅读 · 2022年3月20日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员