Learning to coordinate among multiple agents is an essential problem in multi-agent systems. Multi-agent reinforcement learning has long been a go-to tool in the complicated collaborative environment. However, most existing works are constrained by the assumption that all agents take actions simultaneously. In this paper, we endow the hierarchical order of play for the agents through electing a first-move agent and other agents take the best response to the first-move agent to obtain better coordination. We propose the algorithm EFA-DQN to implicitly model the coordination and learn the coordinated behavior in multi-agent systems. To verify the feasibility and demonstrate the effectiveness and efficiency of our algorithm, we conduct extensive experiments on several multi-agent tasks with different numbers of agents: Cooperative Navigation, Physical Deception, and The Google Football. The empirical results across the various scenarios show that our method achieves competitive advantages in terms of better performance and faster convergence, which demonstrates that our algorithm has broad prospects for addressing many complex real-world problems.


翻译:多剂强化学习长期以来一直是复杂协作环境中的一个工具。然而,大多数现有工作都受到所有代理同时采取行动的假设的限制。在本文件中,我们通过选择第一移动代理和其他代理对第一移动代理作出最佳反应,以获得更好的协调,赋予代理的等级顺序。我们建议“全民教育-DQN”算法在多剂系统中隐含协调模式,并学习协调行为。为了核实我们算法的可行性并展示我们算法的实效和效率,我们广泛试验了由不同代理商组成的多个多剂任务:合作导航、物理欺骗和谷歌足球。各种情景的经验结果表明,我们的方法在改进业绩和更快的趋同方面都具有竞争优势,这表明我们的算法在解决许多复杂的现实世界问题方面有着广阔的前景。

0
下载
关闭预览

相关内容

【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年12月7日
Arxiv
3+阅读 · 2018年10月5日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
6+阅读 · 2018年4月24日
VIP会员
相关VIP内容
【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员