Age-of-Information (AoI) is a recently proposed metric for quantifying the freshness of information from the UE's perspective in a communication network. Recently, Kadota et al. [1] have proposed an index-type approximately optimal scheduling policy for minimizing the average-AoI metric for a downlink transmission problem. For delay-sensitive applications, including real-time control of a cyber-physical system, or scheduling URLLC traffic in 5G, it is essential to have a more stringent uniform control on AoI across all users. In this paper, we derive an exactly optimal scheduling policy for this problem in a downlink cellular system with erasure channels. Our proof of optimality involves an explicit solution to the associated average-cost Bellman Equation, which might be of independent theoretical interest. We also establish that the resulting Age-process is positive recurrent under the optimal policy, and has an exponentially light tail, with the optimal large-deviation exponent. Finally, motivated by typical applications in small-cell residential networks, we consider the problem of minimizing the peak-AoI with throughput constraints to specific UEs, and derive a heuristic policy for this problem. Extensive numerical simulations have been carried out to compare the efficacy of the proposed policies with other well-known scheduling policies, such as Randomized scheduling and Proportional Fair.


翻译:最近,卡多塔等人(Adota等人([1] )提出了一种指数型的最佳时间安排政策,以尽量减少平均AoI指数,解决下链接传输问题。对于延迟敏感应用,包括对网络物理系统的实时控制,或将URLLC的交通排在5G,有必要对所有用户对AoI实行更严格的统一控制。在本文中,我们从一个下行移动电话系统与消除渠道的下行连接中获得这一问题的最佳时间安排政策。我们的最佳证明是明确解决相关的平均成本的Bellman等分法,这可能具有独立的理论意义。我们还确定,由此产生的年龄进程在最佳政策下是经常出现的积极现象,并且具有极轻的尾部,具有最佳的大缩影。最后,在小型住宅网络的典型应用中,我们认为将顶峰式AoI与特定UE断气管道相连接的问题最为理想地排在日程安排上。我们发现,对与此相关的平均成本的Bellman等分法(Bellman等价法可能具有独立的理论意义)有一个明确的解决办法。我们还确定,由此产生的时代进程在最佳的周期政策中是积极的重复出现,并且具有极小缩尾线。最后,而且最轻微的尾部的缩化政策也是最接近于这种模拟的问题。

0
下载
关闭预览

相关内容

开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
5+阅读 · 2018年1月30日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员