Multi-access edge computing (MEC) and network virtualization technologies are important enablers for fifth-generation (5G) networks to deliver diverse applications and services. Services are often provided as fully connected virtual network functions (VNF)s, through service function chaining (SFC). However, the problem of allocating SFC resources at the network edge still faces many challenges related to the way VNFs are placed, chained and scheduled. In this paper, to solve these problems, we propose a game theory-based approach with the objective to reduce service latency in the context of SFC at the network edge. The problem of allocating SFC resources can be divided into two subproblems. 1) The VNF placement and routing subproblem, and 2) the VNF scheduling subproblem. For the former subproblem, we formulate it as a mean field game (MFG) in which VNFs are modeled as entities contending over edge resources with the goal of reducing the resource consumption of MEC nodes and reducing latency for users. We propose a on a reinforcement learning-based technique, where the Ishikawa-Mann learning algorithm (IMLA) is used. For the later subproblem we formulate it as a matching game between the VFNs and an edge resources in order to find the execution order of the VNFs while reducing the latency. To efficiently solve it, we propose a modified version of the many-to-one deferred acceptance algorithm (DAA), called the enhanced multi-step deferred acceptance algorithm (eMSDA). To illustrate the performance of the proposed approaches, we perform extensive simulations. The obtained results show that the proposed approaches outperform the benchmarks other state-of-the-art methods.


翻译:多接入边缘计算(MEC)和网络虚拟化技术是第五代(5G)网络提供多种应用和服务的重要推进手段。服务通常以完全连接的虚拟网络功能(VNF)提供,通过服务功能链链(SFC)提供服务。然而,在网络边缘分配SFC资源的问题仍面临与VNF的放置、链锁和排期方式有关的许多挑战。在本文件中,为了解决这些问题,我们提议一种基于游戏理论的方法,目的是降低SFC在网络边缘范围内对SFC的接受度。分配SFC资源的问题可以分为两个子问题:1 VNFF的配置和路由路由子网络连接的子网络功能。 VNFFC的排列子问题。对于前一个子问题,我们把它设计成一个普通游戏游戏游戏游戏游戏(MFMG),其中将VNFS的模型建模成一个实体,目的是为了减少MEC节点的资源消耗量和降低用户的耐久性。我们提议了一个基于强化学习的技术, 将IS-M-Man-L的升级方法用于在后期的SQA-Syal的学习。我们的变式系统,在SUA-A-A-A-A-Syal-Sloveal-Sma-Smax-Sma-Smad-smadalsmadalmas mamas mas mas mas mas la la la la laine lax lax laine laine laine lades lades laine laine lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax la la la la la la la lax la lax lax lax lax lax lax lax la la la

0
下载
关闭预览

相关内容

专知会员服务
57+阅读 · 2021年6月1日
【伯克利-Ke Li】学习优化,74页ppt,Learning to Optimize
专知会员服务
40+阅读 · 2020年7月23日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
5+阅读 · 2018年6月12日
VIP会员
相关VIP内容
专知会员服务
57+阅读 · 2021年6月1日
【伯克利-Ke Li】学习优化,74页ppt,Learning to Optimize
专知会员服务
40+阅读 · 2020年7月23日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员