A lot of recent progress has been made in ultra low-bit quantization, promising significant improvements in latency, memory footprint and energy consumption on edge devices. Quantization methods such as Learned Step Size Quantization can achieve model accuracy that is comparable to full-precision floating-point baselines even with sub-byte quantization. However, it is extremely challenging to deploy these ultra low-bit quantized models on mainstream CPU devices because commodity SIMD (Single Instruction, Multiple Data) hardware typically supports no less than 8-bit precision. To overcome this limitation, we propose DeepGEMM, a lookup table based approach for the execution of ultra low-precision convolutional neural networks on SIMD hardware. The proposed method precomputes all possible products of weights and activations, stores them in a lookup table, and efficiently accesses them at inference time to avoid costly multiply-accumulate operations. Our 2-bit implementation outperforms corresponding 8-bit integer kernels in the QNNPACK framework by up to 1.74x on x86 platforms.


翻译:近年来,超低位量化取得了很多进展,在边缘设备上承诺显著改善延迟、内存占用和能源消耗。像 Learned Step Size Quantization 这样的量化方法可以在子字节量化下实现可与完全精度浮点基线相当的模型准确性。然而,在主流CPU设备上部署这些超低位量化模型非常具有挑战性,因为通用的单指令多数据( SIMD )硬件通常支持至少8位精度。为了克服这个限制,我们提出了 DeepGEMM,一种基于查找表的方法,用于在 SIMD 硬件上执行超低精度卷积神经网络。所提出的方法预先计算所有可能的权重和激活的乘积,将它们存储在一个查找表中,并在推断时高效地访问它们,以避免昂贵的乘积累加运算。我们的2位实现在x86平台上比相应的 QNNPACK 框架中的8位整数内核性能提高了高达1.74倍。

0
下载
关闭预览

相关内容

在计算机科学中,查找表是一个用更简单的数组索引操作代替运行时计算的数组。 在处理时间方面的节省是可观的,因为从存储器中检索值通常比进行“昂贵”的计算或输入/输出操作要快。 这些表可以预先计算并存储在静态程序存储中,作为程序初始化阶段(内存化)的一部分进行计算(或“预取”),甚至可以存储在特定于应用程序平台中的硬件中。 查找表还广泛用于通过与数组中的有效(或无效)项列表进行匹配来验证输入值,并且在某些编程语言中,查找表可能包含指针函数(或标签偏移量)以处理匹配的输入。 FPGA还广泛使用可重新配置的,硬件实现的查找表,以提供可编程的硬件功能。
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
微软:我已把显存优化做到了极致,还有谁?
夕小瑶的卖萌屋
0+阅读 · 2022年6月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月2日
VIP会员
相关VIP内容
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
微软:我已把显存优化做到了极致,还有谁?
夕小瑶的卖萌屋
0+阅读 · 2022年6月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员