Representation learning algorithms automatically learn the features of data. Several representation learning algorithms for graph data, such as DeepWalk, node2vec, and GraphSAGE, sample the graph to produce mini-batches that are suitable for training a DNN. However, sampling time can be a significant fraction of training time, and existing systems do not efficiently parallelize sampling. Sampling is an embarrassingly parallel problem and may appear to lend itself to GPU acceleration, but the irregularity of graphs makes it hard to use GPU resources effectively. This paper presents NextDoor, a system designed to effectively perform graph sampling on GPUs. NextDoor employs a new approach to graph sampling that we call transit-parallelism, which allows load balancing and caching of edges. NextDoor provides end-users with a high-level abstraction for writing a variety of graph sampling algorithms. We implement several graph sampling applications, and show that NextDoor runs them orders of magnitude faster than existing systems.


翻译:代表式学习算法自动学习数据的特点。 图形数据的一些代表式学习算法, 如 DeepWalk、 node2vec 和 GraphSAGE, 样本图形以制作适合培训 DNN 的微型插头。 然而, 抽样时间可能是培训时间的相当一部分, 现有系统无法有效地平行取样。 取样是一个令人尴尬的平行问题, 似乎有助于 GPU 加速, 但图形的不规则性使得它很难有效地使用 GPU 资源。 本文展示了“ 下Door ”, 这个系统旨在有效地在 GPUs上进行图形取样。 下个 Door 采用了一种新的图表取样方法, 我们称之为“ 中转- 平行 ”, 从而可以平衡负荷和缓冲边缘 。 下一个 Door 向终端用户提供高层次的抽象数据, 用于撰写各种图形取样算法。 我们实施了几个图形抽样应用程序, 并显示“ 下 Door” 运行它们数量级比现有系统要快。

0
下载
关闭预览

相关内容

Nextdoor 是美国最大的邻里社交 App,在这个时代颇有一些“小国寡民”的色彩,注册过程繁琐,用户需要提供家庭住址证明自己属于这一社区范围,社区内发布的消息仅仅该小区的用户可以看到。
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】xLearn:一款专门针对大规模稀疏数据的机器学习库
机器学习研究会
3+阅读 · 2017年11月25日
Arxiv
1+阅读 · 2021年6月30日
Arxiv
0+阅读 · 2021年6月28日
Arxiv
45+阅读 · 2019年12月20日
Arxiv
3+阅读 · 2018年2月7日
Arxiv
4+阅读 · 2017年7月25日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】xLearn:一款专门针对大规模稀疏数据的机器学习库
机器学习研究会
3+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员