Advancements in high-performance computing and cloud technologies have enabled the development of increasingly sophisticated Deep Learning (DL) models. However, the growing demand for embedded intelligence at the edge imposes stringent computational and energy constraints, challenging the deployment of these large-scale models. Early Exiting Neural Networks (EENN) have emerged as a promising solution, allowing dynamic termination of inference based on input complexity to enhance efficiency. Despite their potential, EENN performance is highly influenced by the heterogeneity of edge accelerators and the constraints imposed by quantization, affecting accuracy, energy efficiency, and latency. Yet, research on the automatic optimization of EENN design for edge hardware remains limited. To bridge this gap, we propose a hardware-aware Neural Architecture Search (NAS) framework that systematically integrates the effects of quantization and hardware resource allocation to optimize the placement of early exit points within a network backbone. Experimental results on the CIFAR-10 dataset demonstrate that our NAS framework can discover architectures that achieve over a 50\% reduction in computational costs compared to conventional static networks, making them more suitable for deployment in resource-constrained edge environments.


翻译:高性能计算与云技术的进步推动了日益复杂的深度学习模型的发展。然而,边缘嵌入式智能需求的增长带来了严格的计算与能耗限制,使得大规模模型的部署面临挑战。早期退出神经网络作为一种有前景的解决方案应运而生,它能够根据输入复杂度动态终止推理过程以提升效率。尽管潜力显著,早期退出网络的性能受到边缘加速器异构性及量化约束的显著影响,进而影响其精度、能效与延迟。然而,针对边缘硬件自动优化早期退出网络设计的研究仍较为有限。为填补这一空白,我们提出一种硬件感知型神经架构搜索框架,该框架系统性地整合量化效应与硬件资源分配,以优化网络主干中早期退出点的布局。在CIFAR-10数据集上的实验结果表明,我们的神经架构搜索框架能够发现相较于传统静态网络降低超过50%计算成本的架构,使其更适用于资源受限的边缘部署环境。

0
下载
关闭预览

相关内容

【ICML2020】持续终身学习的神经主题建模
专知会员服务
40+阅读 · 2020年6月22日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员