Being able to learn from complex data with phase information is imperative for many signal processing applications. Today' s real-valued deep neural networks (DNNs) have shown efficiency in latent information analysis but fall short when applied to the complex domain. Deep complex networks (DCN), in contrast, can learn from complex data, but have high computational costs; therefore, they cannot satisfy the instant decision-making requirements of many deployable systems dealing with short observations or short signal bursts. Recent, Binarized Complex Neural Network (BCNN), which integrates DCNs with binarized neural networks (BNN), shows great potential in classifying complex data in real-time. In this paper, we propose a structural pruning based accelerator of BCNN, which is able to provide more than 5000 frames/s inference throughput on edge devices. The high performance comes from both the algorithm and hardware sides. On the algorithm side, we conduct structural pruning to the original BCNN models and obtain 20 $\times$ pruning rates with negligible accuracy loss; on the hardware side, we propose a novel 2D convolution operation accelerator for the binary complex neural network. Experimental results show that the proposed design works with over 90% utilization and is able to achieve the inference throughput of 5882 frames/s and 4938 frames/s for complex NIN-Net and ResNet-18 using CIFAR-10 dataset and Alveo U280 Board.


翻译:许多信号处理应用程序必须能够从复杂的数据中学习阶段信息。 今天真正有价值的深神经网络(DNNS)在潜值信息分析中显示出效率,但在应用到复杂域中却落后于此。 深复杂的网络(DCN)可以从复杂的数据中学习,但计算成本却很高; 因此,它们无法满足许多可部署系统即时决策要求, 涉及短时间观测或短时间信号爆发。 最近, Binalizized 复合神经网络(BCNNN)将DCN与二进制神经网络(BNN)整合在一起, 显示实时对复杂数据进行分类的巨大潜力。 在本文中,我们提议以基于BCNCNNNCN的加速器为基础进行结构运行, 该设备能够提供超过5,000个框架/推力的边端装置。 高性能来自算和硬件两端。 在算学方面,我们进行结构运行, 并获得20 $80 Net 美元 的运行率, 和 微不足道的精确度损失; 在硬件方面, 我们提议使用新型的 2DDDDRC操作, 并显示一个超过 Ral- CD- CDeraleraleral 的系统设计图图图, 。

0
下载
关闭预览

相关内容

【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
BERT 瘦身之路:Distillation,Quantization,Pruning
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
硬件加速神经网络综述
计算机研究与发展
25+阅读 · 2019年2月1日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
AI/ML/DNN硬件加速设计怎么入门?
StarryHeavensAbove
10+阅读 · 2018年12月4日
Communication in Complex Networks
Arxiv
0+阅读 · 2021年10月8日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
6+阅读 · 2018年4月24日
VIP会员
相关VIP内容
相关资讯
Top
微信扫码咨询专知VIP会员