We propose methods to train convolutional neural networks (CNNs) with both binarized weights and activations, leading to quantized models that are specifically friendly to mobile devices with limited power capacity and computation resources. Previous works on quantizing CNNs often seek to approximate the floating-point information using a set of discrete values, which we call value approximation, typically assuming the same architecture as the full-precision networks. Here we take a novel "structure approximation" view of quantization -- it is very likely that different architectures designed for low-bit networks may be better for achieving good performance. In particular, we propose a "network decomposition" strategy, termed Group-Net, in which we divide the network into groups. Thus, each full-precision group can be effectively reconstructed by aggregating a set of homogeneous binary branches. In addition, we learn effective connections among groups to improve the representation capability. Moreover, the proposed Group-Net shows strong generalization to other tasks. For instance, we extend Group-Net for accurate semantic segmentation by embedding rich context into the binary structure. Furthermore, for the first time, we apply binary neural networks to object detection. Experiments on both classification, semantic segmentation and object detection tasks demonstrate the superior performance of the proposed methods over various quantized networks in the literature. Our methods outperform the previous best binary neural networks in terms of accuracy and computation efficiency.


翻译:我们提出了以二进制权重和激活方式对卷发神经网络(CNNs)进行培训的方法,从而形成对动力和计算资源有限的移动设备特别友好的量化模型。对CNN进行量化的以往工作常常试图利用一组离散的值来接近浮点信息,我们称之为“价值近似”,通常假设与全精度网络相同的结构。我们在这里采用一个新的“结构近似”的量化观点 -- -- 低位网络设计的不同结构可能更有利于实现良好的绩效。特别是,我们提出了“网络分解”战略,称为“集团网网网”,将网络分成若干组。因此,每个完全精准组都可以通过汇集一组同质的二元分支来有效地重建浮点信息。此外,我们学习各组之间的有效联系来提高代表能力。此外,拟议的Group-Net显示了对其他任务的强烈概括性。例如,我们扩展了集团网,通过将目标丰富的环境嵌入二进式文献结构来准确分解。我们提出了“网络”的战略,称为“集团网格网格-网格-网格”战略,将网络分为若干组。因此,我们可以将网络的精度组合的精度分解。此外,在最初的检测中,我们运用了各种分解方法中,在前的计算方法中,我们运用了最佳的计算方法。我们运用了。在前的精度中,我们运用了最佳的精度的精度。

0
下载
关闭预览

相关内容

专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
109+阅读 · 2020年3月12日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
4+阅读 · 2018年11月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Local Relation Networks for Image Recognition
Arxiv
4+阅读 · 2019年4月25日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
4+阅读 · 2018年11月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员