摘要——人工智能与边缘计算的融合正推动在资源受限设备上实现智能服务的研究热潮。传统深度学习模型通常依赖大量计算资源和集中式数据管理,进而带来延迟高、带宽占用大和隐私泄露等问题,暴露出以云为中心范式的关键局限。受大脑启发的计算范式,尤其是脉冲神经网络(Spiking Neural Networks, SNNs),通过模拟生物神经元的动态行为,实现了低功耗、事件驱动的计算,为边缘智能提供了一种有前景的替代方案。 本文对基于 SNN 的边缘智能(EdgeSNNs)进行了全面综述,重点探讨其在边缘场景下解决本地学习、推理与安全性等关键挑战的潜力。我们系统性地梳理了 EdgeSNN 的基础体系结构,包括神经元模型、学习算法和支持性硬件平台。围绕 EdgeSNN 的三个典型现实需求进行了深入探讨: 1. 利用轻量化 SNN 模型实现本地推理; 1. 在非平稳数据条件下进行资源感知的训练与更新; 1. 面向隐私与安全保护的机制设计。
此外,我们指出了在传统硬件上评估 EdgeSNN 的局限性,并提出了一种双轨基准测试策略,以实现公平的性能比较与面向硬件的优化。 本综述旨在弥合脑启发学习与实际边缘部署之间的差距,全面呈现当前进展、存在的挑战与未来研究方向。据我们所知,这是首篇聚焦 EdgeSNN 的专门性系统综述,为从事类脑计算与边缘智能交叉领域研究的学者与工程人员提供了重要参考。 关键词:脉冲神经网络、边缘智能、本地机器学习、脑启发计算!
人工智能(AI),特别是机器学习(Machine Learning, ML)的迅猛发展,催生了日益复杂的模型,这些模型在自然语言处理(NLP)[1]、计算机视觉(CV)[2]、个性化推荐系统[3]以及时间序列预测[4]等多个领域取得了最新的先进性能(SOTA)。这些 AI 驱动的应用正在深刻改变人类的日常生活。 传统的 AI 应用高度依赖云端所提供的大量计算与存储资源。由物联网(IoT)设备及其他边缘源生成的海量数据通常被传输至集中式服务器进行处理和管理,用户再通过云端访问数据以获取所需结果 [5]。然而,这种以云为中心的架构面临多项关键挑战,包括吞吐量低、延迟高、带宽瓶颈 [6] 以及日益突出的数据隐私问题 [7]。为缓解这些问题,边缘计算被提出作为一种前景广阔的计算范式,通过将 AI 服务迁移至接近数据源的位置(如 IoT 设备和终端用户)执行,从而降低延迟、减轻带宽压力、并提升系统可靠性与用户体验。 尽管边缘智能具备诸多优势,传统方法依然高度依赖计算资源,对 CPU、GPU、内存及网络带宽提出了严格要求 [8]。这种资源依赖性极大限制了复杂 AI 模型在普遍边缘设备上的部署。尽管智能手机等设备的硬件性能不断增强,但仍难以支撑许多深度学习模型。例如,当前多数语音助手(如 Apple Siri 和 Microsoft Cortana)仍需依赖云端运行,一旦失去网络连接便无法工作 [9]。同时,AI 模型日益增长的计算需求已超过摩尔定律所预测的硬件性能提升速度 [10],预示着传统计算架构将遭遇性能瓶颈。因此,亟需开发新型的、资源高效且具可扩展性的解决方案,以支撑未来的边缘智能发展。 脑启发计算(Brain-Inspired Computing, BIC)[11] 正在成为一种前景广阔的计算新范式,其核心思想是将神经机制与类脑计算策略引入算法与系统设计之中 [12]。其中,脉冲神经网络(Spiking Neural Networks, SNNs)[13] 及其源自神经科学的机制被广泛应用于提升模型的学习能力与能效。当前的算法研究主要通过在常规硬件平台(如 CPU 和 GPU)上的模拟执行来开展,旨在指导下一代类脑硬件的设计与优化 [14]。 类脑系统 [10] 在推动新型计算架构的发展中发挥着关键作用,其通过仿生设计实现了可扩展、高能效与实时性强的计算能力。将 SNN 算法与专用类脑硬件集成后,系统可在边缘实现高能效、低功耗、强鲁棒性的智能应用 [15]。 为推动这一融合边缘计算与脑启发计算的新兴范式的发展,即基于脉冲神经网络的边缘智能(EdgeSNNs),必须首先明确当前 SNN 技术的研究进展,并评估其在边缘场景中的可部署性。现有研究涵盖了从单神经元机制到网络级 SNN 架构及其学习范式的多个层次。与人工神经网络(ANNs)不同,SNN 保持静态网络结构,同时引入神经动态过程,其脉冲生成受生物物理机制调控。为应对动态复杂性带来的计算负担,泄漏积分-发放(Leaky Integrate-and-Fire, LIF)模型[16] 及其变种被广泛采用作为基础神经元模型,以提升计算效率。 当前的 SNN 学习算法可大致分为无监督学习与有监督学习[17]–[19]。后者又进一步细分为ANN 到 SNN 转换(ANN2SNN)方法与直接训练方法。在资源受限的边缘环境下,开发具有生物可解释性的高效学习算法成为关键挑战。我们认为,采用更贴近生物机制的神经元模型具有显著潜力,有望提升类脑计算系统的适应性与能效。然而,要在实际应用中部署 EdgeSNN,还需从多个关键维度进行系统评估,包括任务表现、计算效率与模型可训练性。 基于现有文献,我们将 EdgeSNN 应用中的三类现实需求归纳如下: 1. 边缘设备部署与推理:该方向关注将轻量化的 SNN 模型部署至资源受限的边缘设备,实现低延迟、低功耗的本地推理,并减少对云端资源的依赖。该范式主要解决实时应用中延迟与通信开销问题。核心技术挑战在于,在确保模型准确率的同时,显著降低计算与内存开销。现有方法大致分为:轻量模型设计[20][21] 与后处理模型简化[22]–[24],二者均致力于在性能几乎无损的前提下降低 SNN 的复杂度。 1. EdgeSNN 的训练与更新:该方向强调在设备本地进行学习,利用本地数据训练模型,从而降低将数据上传云端所带来的隐私与安全风险。然而,边缘设备资源受限,加之数据分布的动态变化 [25],使得本地训练面临诸多挑战。为此,提出了两类互补策略:(1)通过优化内存与计算消耗,实现高效的单设备本地训练[26];(2)实现多设备协同学习 [27],或与中心云端协同训练 [28]。在协同学习场景中,通信效率至关重要,更新频率与传输成本显著影响模型性能。 1. EdgeSNN 的安全与隐私保护:该方向旨在防御潜在攻击与隐私泄露。在协同训练中,即使未直接共享原始数据,模型更新中也可能泄露隐私,特别是当更新中包含能反映特定设备或环境的数据模式时 [29]–[31]。此外,由于训练高度依赖本地数据,系统容易遭受对抗样本注入或数据投毒攻击[32],攻击者可通过恶意输入破坏模型训练,造成性能下降或行为偏差 [33]–[35]。
尽管上述实际考量构成了 EdgeSNN 的应用基础,一个根本性问题仍未解决:如何构建全面的评估机制,确保这些模型能满足现实边缘应用中的多样化与严格需求。 目前类脑硬件仍处于初期发展阶段,尚未形成主流商用平台。因此,现有对 EdgeSNN 的评估主要基于 Raspberry Pi 与 NVIDIA Jetson 等常规边缘设备 [15][36][37]。虽然这些平台能有效反映边缘资源限制,但它们并未专为类脑计算设计,因此在性能上仍存在局限与偏差。为此,本文提出了一种双轨评估框架[38],旨在实现对 EdgeSNN 性能的公平评估,支持不同模型在异构设备上的客观比较,指导面向硬件优化的研究,并通过量化准确率与资源消耗之间的权衡,为商业化落地提供决策依据。 尽管取得了一定进展,EdgeSNN 的现实应用仍面临来自硬件、软件与算法多个层面的开放挑战,包括:硬件异构性、软件生态尚不成熟、边缘数据有限且分布动态变化,以及缺乏标准化评测体系等。这些问题阻碍了高效、可适应、可扩展的 EdgeSNN 解决方案的形成。要有效应对上述挑战,需要在软硬件协同设计、抽象接口构建、受限资源下的自适应学习以及标准评测机制等方面取得协同突破。 总之,本文系统回顾了用于或可适用于 EdgeSNN 的技术方法,并提供了与现有相关综述的对比,如表 I 所示。此外,本文还提供了一个配套 GitHub 仓库2,整理了所涉及文献与资料。本文的主要贡献包括: * 全面综述:据我们所知,这是首篇专注于 EdgeSNN 系统部署的综述论文,涵盖其核心方法、典型 AI 任务中的应用场景,以及在多种边缘环境下的部署策略。 * 系统分类框架:提出一个系统化的技术分类框架,对 EdgeSNN 的关键构成模块及其应用问题进行整理,为解读当前 SOTA 方法及其运行机制提供理论支撑。 * 挑战与未来方向:在现有分类体系与实际应用基础上,系统归纳当前研究面临的挑战,并提出未来可能的发展路径,旨在提高研究的系统性与严谨性,并回应不断演化的技术趋势。
图 1 展示了本文结构。接下来的章节安排如下:第二节介绍 SNN 相关的基础知识;第三节回顾 EdgeSNN 基础架构的最新进展并评估其边缘适应性;第四节探讨实际部署中的多个关键问题,包括部署与推理、本地训练与更新、安全与隐私;第五节提出用于系统与算法开发的双轨评估框架;第六节讨论当前挑战与未来研究方向;第七节为全文总结。