Deep Reinforcement Learning (DRL) widely applies to job scheduling and resource allocation applications and remarkably improves performances. Existing resource management approaches essentially optimize makespan minimization on the fixed number of jobs. Although previous researches purport to express breakthrough performances, we alternatively corroborate the job scheduling problem in a more practical scenario where the scheduler (1) aims to minimize average latency in a steady-state condition and (2) assigns varying numbers of tasks to heterogeneous resources. Broadly, these conditions are essential in the System-on-Chip (SoC) application, which developed with high-frequency job generation and operated distributed resources in a parallel. We assume the indefinite jobs are continuously injected into the simulation in a stream fashion and empirically discover that existing research hard adapts in the suggested scenario. Moreover, the agent must tackle concurrent observations caused by the task dependency. This paper introduces the Eclectic Interaction Matching technique to tackle such difficulties and the System-on-Chip Resource AdapTivE Scheduling (SoCRATES) that specialized in scheduling hierarchical jobs to heterogeneous resources the SoC application. The proposed method outperforms other existing RL-based schedulers and state-of-the-art heuristic schedulers.


翻译:深入强化学习(DRL)广泛适用于工作时间安排和资源分配应用程序,并显著改善绩效。现有的资源管理方法基本上优化了固定职位数量的最小化。虽然以前的研究旨在显示突破性业绩,但我们也可以在一个更实际的情景中证实工作时间安排问题,其中调度员(1)旨在稳定状态下尽量减少平均延迟度,(2)为多种资源分配不同的任务。这些条件在系统对齐工作应用中至关重要,该应用以高频创造就业机会和平行操作分配资源开发。我们假设无限期工作以流体方式不断注入模拟,并实际发现现有研究在所建议的情景中难以适应。此外,该代理商必须处理任务依赖性引起的并行观测。本文件介绍了应对此类困难的选用互动技术以及专门将分级工作排入混合资源软件应用的系统对齐资源AdapTivE Steltingling(SOCRATES) (SOCRATES) 。拟议方法优于其他基于RL的排程和状态列表。

0
下载
关闭预览

相关内容

古希腊哲学家,和其学生柏拉图及柏拉图的学生亚里士多德被并称为希腊三哲人。他被后人广泛认为是西方哲学的奠基者。 苏格拉底相信「理想存在于一个只有智者才能了解的世界」。
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年6月17日
Arxiv
0+阅读 · 2021年6月16日
A Modern Introduction to Online Learning
Arxiv
20+阅读 · 2019年12月31日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
5+阅读 · 2018年6月5日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
Arxiv
0+阅读 · 2021年6月17日
Arxiv
0+阅读 · 2021年6月16日
A Modern Introduction to Online Learning
Arxiv
20+阅读 · 2019年12月31日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
5+阅读 · 2018年6月5日
Top
微信扫码咨询专知VIP会员