Representing deep neural networks (DNNs) in low-precision is a promising approach to enable efficient acceleration and memory reduction. Previous methods that train DNNs in low-precision typically keep a copy of weights in high-precision during the weight updates. Directly training with low-precision weights leads to accuracy degradation due to complex interactions between the low-precision number systems and the learning algorithms. To address this issue, we develop a co-designed low-precision training framework, termed LNS-Madam, in which we jointly design a logarithmic number system (LNS) and a multiplicative weight update algorithm (Madam). We prove that LNS-Madam results in low quantization error during weight updates, leading to a stable convergence even if the precision is limited. We further propose a hardware design of LNS-Madam that resolves practical challenges in implementing an efficient datapath for LNS computations. Our implementation effectively reduces energy overhead incurred by LNS-to-integer conversion and partial sum accumulation. Experimental results show that LNS-Madam achieves comparable accuracy to full-precision counterparts with only 8 bits on popular computer vision and natural language tasks. Compared to a full-precision floating-point implementation, LNS-Madam reduces the energy consumption by over 90.


翻译:在低精确度中代表深心神经网络(DNNs)的低精确度中代表深心神经网络(DNNs)是一种大有希望的方法,有助于高效加速和减少记忆。以前在低精确度中培训DNns的方法通常在重量更新期间保持高精确度的重力。在低精确度重量的直接培训导致精度下降,因为低精确度数字系统和学习算法之间的复杂相互作用。为了解决这一问题,我们开发了一个共同设计的低精确度培训框架,称为LNS-Madam,我们在这个框架中联合设计一个对数数数系统(LNS)和多复制重量更新算法(MAdam)。我们证明,LNS-MAdam在重量更新期间导致低定量误差,即使精确度有限,也会导致稳定的趋同。我们进一步提议一个LNS-Madam硬件设计,以解决在使用高效的低精确度数据路径计算LNSS计算时遇到的实际挑战。我们的实施有效地减少了LNS-内热转换和部分累积产生的能源间接费用。实验结果显示,LNS-MADADM-S-Simal-Simal-Simalal-comalal-comnial-comal-commal-commal-commal-comm-commal-commal-comm-comm-commal-commal-commal-commal-comm-compilational-compal-compilation-al-al-al-commal-comm-comm-al-al-al-al-al-commactal-al-al-al-al-al-al-al-al-al-al-al-al-s-s-al-comm-al-al-al-al-al-al-al-al-al-al-al-al-al-al-al-comm-comm-comm-al-al-compal-pal-Ial-Ial-pal-pal-al-Ial-al-al-al-al-al-al-al-al-al-al-Ial-Ial-al-al-al-al-Ial-pal-Ial-Ial-pal-pal-I

0
下载
关闭预览

相关内容

专知会员服务
76+阅读 · 2021年3月16日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
已删除
将门创投
5+阅读 · 2019年3月29日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
8+阅读 · 2021年1月28日
Arxiv
8+阅读 · 2018年6月19日
VIP会员
相关VIP内容
专知会员服务
76+阅读 · 2021年3月16日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
已删除
将门创投
5+阅读 · 2019年3月29日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员