We challenge the prevailing view that weight oscillations observed during Quantization Aware Training (QAT) are merely undesirable side-effects and argue instead that they are an essential part of QAT. We show in a univariate linear model that QAT results in an additional loss term that causes oscillations by pushing weights away from their nearest quantization level. Based on the mechanism from the analysis, we then derive a regularizer that induces oscillations in the weights of neural networks during training. Our empirical results on ResNet-18 and Tiny Vision Transformer, evaluated on CIFAR-10 and Tiny ImageNet datasets, demonstrate across a range of quantization levels that training with oscillations followed by post-training quantization (PTQ) is sufficient to recover the performance of QAT in most cases. With this work we provide further insight into the dynamics of QAT and contribute a novel insight into explaining the role of oscillations in QAT which until now have been considered to have a primarily negative effect on quantization.


翻译:我们挑战了当前普遍认为量化感知训练(QAT)中观察到的权重振荡仅仅是不可取副作用的观点,并论证这些振荡实际上是QAT的重要组成部分。我们通过单变量线性模型证明,QAT会产生一个额外的损失项,该损失项通过将权重推离其最近的量化水平而引起振荡。基于分析得出的机制,我们进而推导出一种正则化器,可在训练过程中诱导神经网络权重产生振荡。我们在ResNet-18和Tiny Vision Transformer模型上,使用CIFAR-10和Tiny ImageNet数据集进行的实证结果表明,在一系列量化级别下,通过振荡训练后接后训练量化(PTQ)足以在大多数情况下恢复QAT的性能。本研究进一步揭示了QAT的动态机制,并为解释振荡在QAT中的作用提供了新的见解——此前振荡一直被认为主要对量化产生负面影响。

0
下载
关闭预览

相关内容

专知会员服务
12+阅读 · 2021年7月4日
专知会员服务
23+阅读 · 2021年6月22日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
27+阅读 · 2020年11月14日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 11月29日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员