Model quantization is challenging due to many tedious hyper-parameters such as precision (bitwidth), dynamic range (minimum and maximum discrete values) and stepsize (interval between discrete values). Unlike prior arts that carefully tune these values, we present a fully differentiable approach to learn all of them, named Differentiable Dynamic Quantization (DDQ), which has several benefits. (1) DDQ is able to quantize challenging lightweight architectures like MobileNets, where different layers prefer different quantization parameters. (2) DDQ is hardware-friendly and can be easily implemented using low-precision matrix-vector multiplication, making it capable in many hardware such as ARM. (3) Extensive experiments show that DDQ outperforms prior arts on many networks and benchmarks, especially when models are already efficient and compact. e.g., DDQ is the first approach that achieves lossless 4-bit quantization for MobileNetV2 on ImageNet.


翻译:模型量化之所以具有挑战性,是因为许多繁琐的超参数,如精度(比特维特)、动态范围(最小值和最大离散值)和阶梯化(离散值之间的交互值)等。 与以往仔细调和这些值的艺术不同,我们提出了一种完全不同的学习方法,称为差异动态量化(DDQ),它有几个好处。 (1) DDQ能够量化具有挑战性的轻量结构,如移动网络,其中不同层次更喜欢不同的量化参数。 (2) DDQ是硬件友好型的,可以使用低精度矩阵-矢量化倍增法轻易实施,使DDQ能够在诸如ARM等许多硬件中发挥作用。 (3) 广泛的实验表明,DDQ在许多网络和基准上超越了先前的艺术,特别是在模型已经高效和紧凑的情况下。 例如,DDQ是第一个在图像网络上实现移动网络2无损四位四位量化的方法。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
22+阅读 · 2021年4月10日
专知会员服务
15+阅读 · 2021年3月4日
【ICML2020】小样本目标检测
专知会员服务
90+阅读 · 2020年6月2日
专知会员服务
60+阅读 · 2020年3月19日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
BERT 瘦身之路:Distillation,Quantization,Pruning
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
10+阅读 · 2018年5月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年9月9日
Arxiv
0+阅读 · 2021年9月8日
Arxiv
6+阅读 · 2021年3月30日
Arxiv
8+阅读 · 2020年10月9日
Arxiv
5+阅读 · 2020年3月16日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
22+阅读 · 2021年4月10日
专知会员服务
15+阅读 · 2021年3月4日
【ICML2020】小样本目标检测
专知会员服务
90+阅读 · 2020年6月2日
专知会员服务
60+阅读 · 2020年3月19日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
BERT 瘦身之路:Distillation,Quantization,Pruning
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
10+阅读 · 2018年5月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员