深度神经网络(DNNs)最近在一系列现实世界的视觉和语言处理任务中取得了令人瞩目的成功,涵盖了从图像分类到许多其他下游视觉任务,如物体检测、跟踪和分割。然而,尽管以前成熟的深度神经网络在保持优越准确性的同时,网络结构越来越深和宽,必然需要大量的计算资源进行训练和推理。这一趋势进一步扩大了计算密集型深度神经网络与资源受限的嵌入式计算系统之间的计算差距,使得在现实世界的嵌入式计算系统上部署强大的深度神经网络以实现无处不在的嵌入式智能变得更加具有挑战性。为了缓解上述计算差距并促进无处不在的嵌入式智能,本文综述重点讨论了近期针对嵌入式计算系统的高效深度学习基础设施,涵盖从训练到推理、从手动到自动、从卷积神经网络到变换器(transformer)、从变换器到视觉变换器(vision transformer)、从视觉模型到大规模语言模型、从软件到硬件、从算法到应用等多个方面。具体来说,我们从以下几个角度讨论了嵌入式计算系统的高效深度学习基础设施:

  1. 针对嵌入式计算系统的高效手动网络设计
  2. 针对嵌入式计算系统的高效自动化网络设计
  3. 针对嵌入式计算系统的高效网络压缩
  4. 针对嵌入式计算系统的高效设备端学习
  5. 针对嵌入式计算系统的高效大规模语言模型
  6. 针对嵌入式计算系统的高效深度学习软件与硬件
  7. 针对嵌入式计算系统的高效智能应用

此外,我们还展望了有潜力实现更广泛嵌入式智能的未来发展方向和趋势。我们相信,本文综述具有其独特的价值,能够为未来的研究提供启示,帮助研究人员快速且顺利地进入这一新兴领域。

1 引言

随着大规模数据集和先进计算范式的日益普及,深度神经网络(DNNs)在广泛的智能应用中取得了显著的成功,并展示了强大的性能[1–3]。这些智能应用可能涵盖从图像分类[2]到下游视觉任务,如物体检测[4]、跟踪[5]、分割[6],再到自然语言处理(NLP)任务,如自动语音识别[7]、机器翻译[8]和问答[9]。在随后的几年里,深度神经网络不断演化,网络结构变得越来越深,层数也越来越多,以保持在目标任务上的最先进准确度[1–3]。与此同时,新的网络结构和先进的训练技术也相继出现,进一步推动了可达到的准确度[10–12]。这些强大的深度学习(DL)网络和先进的训练技术,从VGGNet[1]到ResNet[2],标志着深度学习时代的到来。深度神经网络的巨大突破随后吸引了学术界和工业界的广泛关注,推动了强大深度神经网络在现实嵌入式计算系统上的部署,包括移动电话[13, 14]、自动驾驶车辆[15, 16]和医疗健康领域[17, 18],以促进嵌入式智能应用的发展[19]。在实际应用中,这可能带来显著的益处。例如,嵌入式计算系统显著支持实时的设备端数据处理,极大地提高了处理效率,从而提升用户体验。此外,数据安全和隐私也得到了保障,因为所有数据可以在本地处理,无需上传到远程服务器[19]。尽管上述潜在的好处,强大深度神经网络在现实嵌入式计算系统上的部署仍面临一些关键限制。一方面,为了维持竞争力的准确度,近年来代表性网络不断变得更深,层数达到数百层[2, 3],因此导致了巨大的计算复杂度[19, 20]。例如,作为最具代表性的深度网络之一,ResNet50[2]包含超过40亿次浮点运算(FLOPs)和2500万个参数,且需要超过87MB的设备存储才能处理单个输入图像。另一方面,现实世界的嵌入式计算系统,如移动电话和自动驾驶车辆,通常具有有限的计算资源,以优化设备端的功率和能耗。综上所述,网络复杂性的不断演进继续扩大计算密集型深度神经网络与资源受限的嵌入式计算系统之间的计算差距[20],使得实现无处不在的嵌入式智能变得越来越具有挑战性。为了弥合上述计算差距并促进无处不在的嵌入式智能,最近提出了大量模型压缩技术,包括网络剪枝[21–23]、网络量化[24–26]和网络蒸馏[11, 27, 28],这些技术努力寻求更好的准确度-效率平衡,以适应现实嵌入式场景中有限的计算资源。例如,网络剪枝主要通过去除冗余的网络单元,如权重[29]、通道[21]和层[30],来减少网络冗余,从而提升在目标硬件上的效率,并且对目标任务的准确度损失最小。除了网络压缩,另一个平行的选择是手动设计资源高效的网络,如SqueezeNet[31]、MobileNets[32, 33]、ShuffleNets[34, 35]和GhostNets[36, 37],这些网络在高效网络设计方面主导了早期的进展。尽管这些高效网络能够表现出卓越的效率,但它们高度依赖人工专业知识,通过反复试验探索新的网络结构,这也需要大量的工程努力和不可忽视的计算资源[38–40]。为了解决这些限制,最近的网络设计实践已经从手动设计转向自动化设计,也被称为神经网络架构搜索(NAS)或自动化机器学习(AutoML),其重点是自动探索新的网络结构[41]。NAS的巨大成功随后催生了许多硬件感知的NAS工作,如MnasNet[38]、ProxylessNAS[40]、FBNet[39]和Once-for-All[42],这些工作自动设计准确而高效的硬件网络解决方案,展示了强大的准确度-效率平衡,并广泛应用于现实嵌入式计算系统中,提供智能服务[43]。除了上述主要关注提升设备端推理效率的高效网络和技术,最近的研究还转向了设备端训练效率[44, 45]。其背后的理论是,尽管以前的代表性网络能够展现出卓越的准确度,但通常需要训练数百个周期,这可能需要在强大的GPU上训练数天[44]。更糟糕的是,远程GPU上的昂贵训练过程无法允许在本地硬件上进行定制,尤其是在资源受限的嵌入式场景中[45]。需要注意的是,设备端的本地定制具有进一步提高准确度的潜力,特别是当本地传感器不断收集来自用户的新数据时。为了克服这些限制,最近已经建立了几种高效的设备端学习技术,如设备端持续学习[46]、设备端迁移学习[44]和设备端联邦学习[47],使得在本地硬件上训练和微调强大的深度网络成为可能,以进一步提高性能。

最近,大型语言模型(LLMs),如GPT-3[48]和GPT-4[49],在各种现实世界的语言处理任务中取得了令人印象深刻的成功[50]。然而,这些强大的LLM的强大学习能力也伴随着巨大的计算复杂度。例如,OpenAI的GPT-3[48],作为最具代表性的LLM之一,包含了1750亿个参数。此外,为了实现最先进的性能,最近的LLM继续朝着更大、更复杂的方向发展,模型规模也不断增大[51, 52]。这些都使得将最近强大的LLM部署到现代嵌入式计算系统上以实现智能语言处理服务变得愈加具有挑战性。为了克服这些限制,最近提出了一系列有效的技术,重点缓解LLM的计算复杂度,探索计算高效的LLM,包括高效的LLM架构设计[53–56]、高效的LLM压缩技术(即剪枝[57, 58]、量化[59, 60]和知识蒸馏[61, 62]),以及高效的LLM系统设计[63–65]。与强大深度网络和先进训练技术的迅速兴起并行,许多代表性的深度学习软件框架和硬件加速器也应运而生,旨在为嵌入式计算系统的高效深度学习解决方案提供支持,如TensorFlow[66]、PyTorch[67]、Google边缘TPU[68]、Nvidia边缘GPU[69]和Intel神经计算棒[70]。这些深度学习软件和硬件已被广泛采用,并为深度学习时代带来了两个主要好处。一方面,这些深度学习软件和硬件消除了软件和硬件工程师面临的障碍,从而使他们能够快速开发智能嵌入式应用,如设备端物体检测[4]、跟踪[5]和分割[6],而无需过多的领域专门知识。另一方面,这些深度学习软件和硬件通常具有领域特定的优化,从而在最小的工程努力下实现卓越的准确度-效率平衡。例如,作为代表性Nvidia Jetson边缘GPU的Nvidia Jetson AGX Xavier,支持使用INT8(即8位权重)的精度开发智能嵌入式应用,在不降低目标任务准确度的情况下,相比全精度(32位权重)显著提高了效率[69]。

1.1 本文组织结构

本文旨在总结近期的高效深度学习基础设施,这些基础设施有望为当前和未来的嵌入式计算系统提供支持,推动无处不在的嵌入式智能发展。实际上,一些现有的综述[71–74]通常聚焦于高效的深度学习算法,但由于深度学习基础设施,尤其是从大型语言模型的角度来看,正在迅速发展,这些综述可能已显得过时。与[71–74]不同,我们的重点是提供更全面和整体的视角,概述近期针对嵌入式计算系统的高效深度学习基础设施,涵盖从训练到推理、从手动到自动、从卷积神经网络到变换器(transformer)、从变换器到视觉变换器(vision transformer)、从视觉模型到大型语言模型、从软件到硬件、从算法到应用等多个方面。具体来说,我们从以下几个方面讨论了嵌入式计算系统的高效深度学习基础设施:

  1. 针对嵌入式计算系统的高效手动网络设计
  2. 针对嵌入式计算系统的高效自动化网络设计
  3. 针对嵌入式计算系统的高效网络压缩
  4. 针对嵌入式计算系统的高效设备端学习
  5. 针对嵌入式计算系统的高效大型语言模型
  6. 针对嵌入式计算系统的高效深度学习软件与硬件
  7. 针对嵌入式计算系统的高效智能应用

我们相信,本文综述具有其独特的价值,能够为未来的研究提供启示,帮助研究人员快速且顺利地进入这一新兴领域。最后,我们展示了本文的组织结构,如图1所示,概要如下:

  • 第二章广泛讨论了近期代表性的高效手动网络。
  • 第三章广泛讨论了近期代表性的高效自动化网络。
  • 第四章广泛讨论了近期代表性的网络压缩技术。
  • 第五章广泛讨论了近期代表性的设备端学习技术。
  • 第六章广泛讨论了近期代表性的较大型语言模型。
  • 第七章广泛讨论了近期代表性的深度学习软件与硬件。
  • 第八章广泛讨论了近期代表性的智能嵌入式应用。 此外,在每一章的结尾,我们还展望了各自领域中可能的未来发展方向,这些方向有潜力为未来的无处不在的嵌入式智能铺平道路。

成为VIP会员查看完整内容
31

相关内容

面向强化学习的可解释性研究综述
专知会员服务
41+阅读 · 7月30日
《模型量化与视觉变换器硬件加速》综述
专知会员服务
22+阅读 · 5月5日
《大型语言模型持续学习》综述
专知会员服务
80+阅读 · 4月26日
《以数据为中心的图学习》综述
专知会员服务
52+阅读 · 2023年10月11日
基于深度学习的图像融合方法综述
专知会员服务
56+阅读 · 2023年1月25日
结合进化算法的深度强化学习方法研究综述
专知会员服务
78+阅读 · 2022年7月16日
深度学习在光声成像中的应用综述
专知会员服务
23+阅读 · 2022年5月23日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
「基于通信的多智能体强化学习」 进展综述
数据受限条件下的多模态处理技术综述
专知
16+阅读 · 2022年7月16日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
159+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
148+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
面向强化学习的可解释性研究综述
专知会员服务
41+阅读 · 7月30日
《模型量化与视觉变换器硬件加速》综述
专知会员服务
22+阅读 · 5月5日
《大型语言模型持续学习》综述
专知会员服务
80+阅读 · 4月26日
《以数据为中心的图学习》综述
专知会员服务
52+阅读 · 2023年10月11日
基于深度学习的图像融合方法综述
专知会员服务
56+阅读 · 2023年1月25日
结合进化算法的深度强化学习方法研究综述
专知会员服务
78+阅读 · 2022年7月16日
深度学习在光声成像中的应用综述
专知会员服务
23+阅读 · 2022年5月23日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
相关资讯
「基于通信的多智能体强化学习」 进展综述
数据受限条件下的多模态处理技术综述
专知
16+阅读 · 2022年7月16日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员