In this paper we analyze the problem of optimal task scheduling for data centers. Given the available resources and tasks, we propose a fast distributed iterative algorithm which operates over a large scale network of nodes and allows each of the interconnected nodes to reach agreement to an optimal solution in a finite number of time steps. More specifically, the algorithm (i) is guaranteed to converge to the exact optimal scheduling plan in a finite number of time steps and, (ii) once the goal of task scheduling is achieved, it exhibits distributed stopping capabilities (i.e., it allows the nodes to distributely determine whether they can terminate the operation of the algorithm). Furthermore, the proposed algorithm operates exclusively with quantized values (i.e., the information stored, processed and exchanged between neighboring agents is subject to deterministic uniform quantization) and relies on event-driven updates (e.g., to reduce energy consumption, communication bandwidth, network congestion, and/or processor usage). We also provide examples to illustrate the operation, performance, and potential advantages of the proposed algorithm. Finally, by using extensive empirical evaluations through simulations we show that the proposed algorithm exhibits state-of-the-art performance.


翻译:在本文中,我们分析了数据中心的最佳任务时间安排问题。根据现有的资源和任务,我们建议采用快速分布的迭代算法,在大型节点网络上运作,使每个相互关联的节点能够在有限的时间步骤中就最佳解决办法达成协议。更具体地说,算法(一)保证在有限的时间步骤中与确切的最佳时间安排计划汇合,以及(二)任务时间安排的目标一旦达到,它就显示出分布式的停止能力(即,它允许节点分配决定它们是否能够终止算法的运作)。此外,拟议的算法完全使用量化值(即,相邻代理商之间储存、处理和交换的信息)来操作,并依靠事件驱动的更新(例如,减少能源消耗、通信带宽、网络拥堵和(或)处理器的使用)。我们还提供实例,说明拟议的算法的运作、性能和潜在优势。最后,我们通过模拟,通过广泛的实证评估,展示了拟议的算法状态表现。

0
下载
关闭预览

相关内容

专知会员服务
56+阅读 · 2021年4月12日
【陈天奇】TVM:端到端自动深度学习编译器,244页ppt
专知会员服务
85+阅读 · 2020年5月11日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
106+阅读 · 2020年5月3日
MIT新书《强化学习与最优控制》
专知会员服务
273+阅读 · 2019年10月9日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年5月28日
VIP会员
相关资讯
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员