Mobile edge computing (MEC) has been regarded as a promising wireless access architecture to alleviate the burden of performing computation for large content size tasks at resource limited mobile terminals. By allowing the mobile terminals to offload the computation tasks to MEC servers, the task processing delay can be significantly decreased. As the resources at the MEC and user are limited, performing reasonable resources allocation optimization can improve the performance, especially for a multi-user offloading system. In this study, with an aim to minimize the task computation delay, we jointly optimize the local content splitting ratio, the transmission/computation power allocation, and the MEC server selection under a dynamic environment with stochastic task arrivals and time-varying wireless channels. To address the challenging dynamic joint optimization problem, we formulate it as a reinforcement learning (RL) problem. We design the computational offloading policies to minimize the long-term average delay cost. Two deep RL strategies, that is, deep Q-learning network (DQN) and deep deterministic policy gradient (DDPG), are adopted to efficiently learn the computational offloading policies adaptively. The proposed DQN strategy takes the MEC selection as a unique action while using convex optimization approach to obtain the local content splitting ratio and the transmission/computation power allocation. Simultaneously, the actions of DDPG strategy are selected as all dynamic variables including the local content splitting ratio, the transmission/computation power allocation, and the MEC server selection. Our numerical results demonstrate that both proposed strategies perform better than the traditional non-learning scheme, and the DDPG strategy is superior to the DQN strategy as it can online learn all variables although it requires large complexity.


翻译:移动边缘计算(MEC)被认为是一个大有希望的无线访问架构,目的是减轻在资源有限的流动终端中进行大型内容任务计算的负担。允许移动终端将计算任务卸载到MEC服务器,任务处理延迟可以大大减少。由于MEC和用户的资源有限,合理分配资源分配优化可以提高性能,特别是多用户卸载系统。在这项研究中,为了尽量减少任务计算延迟,我们共同优化本地内容分割比率、传统传输/转换能力分配以及MEC服务器在动态环境中选择大量内容的计算卸载政策。允许移动终端将计算任务卸载到MEC服务器服务器服务器服务器服务器服务器服务器,这样任务处理的延迟可以大大减少。由于MEC和用户资源有限,我们设计合理的计算卸载政策可以最大限度地降低长期平均延迟成本。为了最大限度地减少任务计算延迟,我们采取了两个深层次的 RLL战略,即深Q学习网络(DQN)和深度的确定性化政策梯度(DPG),为了高效率地学习计算数据卸载高级任务交付政策,拟议的Dqreal 分配战略需要更好地将Drealal developmental resulational Resulational delational exal exal exal exal ex ex ex ex ex ex exing the the the the livesut the livesut the livesut the the the the livestal livestaltaltal ligal ex ligal liction the supalctional liction.

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
15+阅读 · 2022年6月14日
VIP会员
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员