Graph convolutional networks (GCNs) have been introduced to effectively process non-euclidean graph data. However, GCNs incur large amounts of irregularity in computation and memory access, which prevents efficient use of traditional neural network accelerators. Moreover, existing dedicated GCN accelerators demand high memory volumes and are difficult to implement onto resource limited edge devices. In this work, we propose LW-GCN, a lightweight FPGA-based accelerator with a software-hardware co-designed process to tackle irregularity in computation and memory access in GCN inference. LW-GCN decomposes the main GCN operations into sparse-dense matrix multiplication (SDMM) and dense matrix multiplication (DMM). We propose a novel compression format to balance workload across PEs and prevent data hazards. Moreover, we apply data quantization and workload tiling, and map both SDMM and DMM of GCN inference onto a uniform architecture on resource limited hardware. Evaluation on GCN and GraphSAGE are performed on Xilinx Kintex-7 FPGA with three popular datasets. Compared to existing CPU, GPU, and state-of-the-art FPGA-based accelerator, LW-GCN reduces latency by up to 60x, 12x and 1.7x and increases power efficiency by up to 912x., 511x and 3.87x, respectively. Furthermore, compared with NVIDIA's latest edge GPU Jetson Xavier NX, LW-GCN achieves speedup and energy savings of 32x and 84x, respectively.


翻译:引入了LW-GCN, 即以轻巧的FPGA和DMM为主的软硬件共同设计的加速器,用以处理GCN的计算和内存存存取的不规则性。LW-GCN在计算和内存存存存存存取方面存在大量不规则的情况,这妨碍了对传统神经网络加速器的有效利用。此外,现有的专门GCN加速器需要大量的内存量,并且难以在资源有限的边缘装置上实施。在这项工作中,我们建议使用一个以FPGGGA为主的轻巧的FPGCN加速器,一个以软件硬件有限的计算和记忆存取为主的软硬件联动加速器。LW-GCN在GCN的主要操作中,将GNC-7-Sloix速度增殖(SMM)和密集矩阵增殖(DMMFA)之间,由X-CFA的60-C-G-VI-PA 和G-C-C-G-G-C-PI-C-C-C-C-PIG-C-C-LVAL-C-C-PA 和G-C-C-C-C-C-C-LVIFC-C-C-C-C-S-S-C-S-C-C-C-PS-PA 和C-C-C-C-C-C-C-C-C-C-S-PG-PG-S-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-CFG-C-C-C-C-C-C-C-C-C-

0
下载
关闭预览

相关内容

【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
40+阅读 · 2020年11月22日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
已删除
将门创投
8+阅读 · 2019年6月13日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
【干货】图卷积GCN前沿方法介绍
专知
32+阅读 · 2018年9月1日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
已删除
将门创投
8+阅读 · 2019年6月13日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
【干货】图卷积GCN前沿方法介绍
专知
32+阅读 · 2018年9月1日
Top
微信扫码咨询专知VIP会员