Mobile edge computing (MEC) can pre-cache deep neural networks (DNNs) near end-users, providing low-latency services and improving users' quality of experience (QoE). However, caching all DNN models at edge servers with limited capacity is difficult, and the impact of model loading time on QoE remains underexplored. Hence, we introduce dynamic DNNs in edge scenarios, disassembling a complete DNN model into interrelated submodels for more fine-grained and flexible model caching and request routing solutions. This raises the pressing issue of jointly deciding request routing and submodel caching for dynamic DNNs to balance model inference precision and loading latency for QoE optimization. In this paper, we study the joint dynamic model caching and request routing problem in MEC networks, aiming to maximize user request inference precision under constraints of server resources, latency, and model loading time. To tackle this problem, we propose CoCaR, an offline algorithm based on linear programming and random rounding that leverages dynamic DNNs to optimize caching and routing schemes, achieving near-optimal performance. Furthermore, we develop an online variant of CoCaR, named CoCaR-OL, enabling effective adaptation to dynamic and unpredictable online request patterns. The simulation results demonstrate that the proposed CoCaR improves the average inference precision of user requests by 46\% compared to state-of-the-art baselines. In addition, in online scenarios, CoCaR-OL achieves an improvement of no less than 32.3\% in user QoE over competitive baselines.


翻译:移动边缘计算(MEC)能够将深度神经网络(DNN)预缓存至靠近终端用户的位置,从而提供低延迟服务并提升用户体验质量(QoE)。然而,在存储容量有限的边缘服务器上缓存所有DNN模型是困难的,且模型加载时间对QoE的影响仍未得到充分探究。为此,我们在边缘场景中引入动态DNN,将完整的DNN模型拆解为相互关联的子模型,以实现更细粒度、更灵活的模型缓存与请求路由方案。这引出了一个亟待解决的问题:如何为动态DNN联合决策请求路由与子模型缓存,以平衡模型推理精度与加载延迟,从而优化QoE。本文研究了MEC网络中动态模型缓存与请求路由的联合优化问题,目标是在服务器资源、延迟及模型加载时间的约束下最大化用户请求的推理精度。为解决该问题,我们提出了CoCaR——一种基于线性规划与随机舍入的离线算法,该算法利用动态DNN来优化缓存与路由方案,实现了接近最优的性能。此外,我们开发了CoCaR的在线变体CoCaR-OL,使其能够有效适应动态且不可预测的在线请求模式。仿真结果表明,与现有先进基线方法相比,所提出的CoCaR将用户请求的平均推理精度提升了46%。此外,在在线场景中,CoCaR-OL相较于竞争性基线方法,在用户QoE上实现了不低于32.3%的提升。

0
下载
关闭预览

相关内容

【AAAI2021】“可瘦身”的生成式对抗网络
专知会员服务
13+阅读 · 2020年12月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员