Residual networks (ResNets) employ skip connections in their networks -- reusing activations from previous layers -- to improve training convergence, but these skip connections create challenges for hardware implementations of ResNets. The hardware must either wait for skip connections to be processed before processing more incoming data or buffer them elsewhere. Without skip connections, ResNets would be more hardware-efficient. Thus, we present the teacher-student learning method to gradually prune away all of a ResNet's skip connections, constructing a network we call NonResNet. We show that when implemented for FPGAs, NonResNet decreases ResNet's BRAM utilization by 9% and LUT utilization by 3% and increases throughput by 5%.


翻译:残余网络(ResNets)利用网络中的跳过连接 -- -- 重复使用前几层的激活 -- -- 来改进培训趋同,但这些跳过连接给ResNet的硬件实施带来了挑战。 硬件要么必须等待跳过连接才能处理更多的输入数据, 要么在别处缓冲。 没有跳过连接, ResNet会更具有硬件效率。 因此, 我们提出师生学习方法, 逐步清除ResNet的所有跳过连接, 构建一个我们称之为NonResNet的网络。 我们显示, 当实施 FPGas 时, NonResNet 将ResNet的BRAM利用率减少9%, LUT 利用率减少3%, 吞吐量增加5% 。

0
下载
关闭预览

相关内容

跳跃连接可以解决网络层数较深的情况下梯度消失的问题,同时有助于梯度的反向传播,加快训练过程。
专知会员服务
61+阅读 · 2020年3月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
已删除
将门创投
7+阅读 · 2018年12月12日
Arxiv
0+阅读 · 2021年3月26日
Arxiv
0+阅读 · 2021年3月24日
Arxiv
5+阅读 · 2020年3月16日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
HAQ: Hardware-Aware Automated Quantization
Arxiv
6+阅读 · 2018年11月21日
Arxiv
3+阅读 · 2018年10月25日
VIP会员
相关资讯
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
已删除
将门创投
7+阅读 · 2018年12月12日
Top
微信扫码咨询专知VIP会员