深度神经网络(DNNs)因其在机器学习(ML)中对各种认知任务的高性能而备受欢迎。近年来,DNN在许多任务上的进展已经超出了人类的精度,但代价是计算复杂度很高。因此,为了高效地执行DNN推理,越来越多的研究工作利用DNN固有的误差恢复能力,并采用近似计算(AC)原理来解决DNN加速器的高能量需求。这篇文章提供了一个分析硬件近似技术的DNN加速器的全面综述。首先,我们分析了目前的技术状况,并通过识别近似族,我们聚类各自的工作与近似类型。接下来,我们分析执行评估的复杂性(与数据集和DNN大小有关),以评估近似DNN加速器的效率、潜力和局限性。此外,还提供了一个广泛的讨论,关于更适合设计DNN加速器的近似单元的误差度量,以及为DNN推理量身定制的精度恢复方法。最后,我们介绍了DNN加速器的近似计算如何超越能源效率,并解决可靠性和安全问题。

成为VIP会员查看完整内容
13
0

相关内容

在计算机科学与运筹学,近似算法是指用来发现近似方法来解决优化问题的算法。近似算法通常与NP-hard问题相关; 由于不可能有效的多项式时间精确算来解决NP-hard问题,所以一个求解多项式时间次优解。
深度神经网络模型压缩与加速综述
专知会员服务
104+阅读 · 2019年10月12日
深度学习模型压缩算法综述
极市平台
0+阅读 · 2021年12月3日
FPGA加速深度学习综述
专知
1+阅读 · 2021年11月13日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
13+阅读 · 2019年5月15日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
硬件加速神经网络综述
计算机研究与发展
18+阅读 · 2019年2月1日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
28+阅读 · 2018年10月31日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
12+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
120+阅读 · 2018年10月8日
小贴士
相关VIP内容
深度神经网络模型压缩与加速综述
专知会员服务
104+阅读 · 2019年10月12日
相关资讯
深度学习模型压缩算法综述
极市平台
0+阅读 · 2021年12月3日
FPGA加速深度学习综述
专知
1+阅读 · 2021年11月13日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
13+阅读 · 2019年5月15日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
硬件加速神经网络综述
计算机研究与发展
18+阅读 · 2019年2月1日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
28+阅读 · 2018年10月31日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
12+阅读 · 2018年9月20日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员