We develop a family of parallel algorithms for the SpKAdd operation that adds a collection of k sparse matrices. SpKAdd is a much needed operation in many applications including distributed memory sparse matrix-matrix multiplication (SpGEMM), streaming accumulations of graphs, and algorithmic sparsification of the gradient updates in deep learning. While adding two sparse matrices is a common operation in Matlab, Python, Intel MKL, and various GraphBLAS libraries, these implementations do not perform well when adding a large collection of sparse matrices. We develop a series of algorithms using tree merging, heap, sparse accumulator, hash table, and sliding hash table data structures. Among them, hash-based algorithms attain the theoretical lower bounds both on the computational and I/O complexities and perform the best in practice. The newly-developed hash SpKAdd makes the computation of a distributed-memory SpGEMM algorithm at least 2x faster than that the previous state-of-the-art algorithms.


翻译:我们为 SpKAdd 操作开发了一套平行算法, 增加了一个 k smiss 矩阵集。 SpKAdd 在许多应用程序中是一个非常需要的操作, 包括分布式的记忆稀薄矩阵矩阵矩阵乘数( SpGEMM ) 、 图表的串流积累, 以及深层学习中梯度更新的算法宽化。 虽然在 Matlab 、 Python、 Intel MKL 和各种 GreabBLAS 库中增加两个稀释矩阵是常见操作, 但是在添加大量稀释矩阵时, 这些操作效果并不好。 我们开发了一系列算法, 使用树状合并、 heap、 稀散的蓄积器、 hash 表格和 滑动的 hash 表格数据结构。 其中, 基于 hash 的算法在计算和 I/ O 复杂性上都达到了理论下较低的边框, 并在实际中进行最佳操作 。 新开发的 hash SpKAdd 使分布式 SpekM 算法的计算速度至少 2x 。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年6月29日
【微软】自动机器学习系统,70页ppt
专知会员服务
68+阅读 · 2021年6月28日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【大规模数据系统,552页ppt】Large-scale Data Systems
专知会员服务
60+阅读 · 2019年12月21日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年4月29日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
Arxiv
9+阅读 · 2021年6月21日
Arxiv
3+阅读 · 2018年10月18日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年4月29日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
Top
微信扫码咨询专知VIP会员