In multi-agent reinforcement learning, the behaviors that agents learn in a single Markov Game (MG) are typically confined to the given agent number (i.e., population size). Every single MG induced by varying population sizes may possess distinct optimal joint strategies and game-specific knowledge, which are modeled independently in modern multi-agent algorithms. In this work, we focus on creating agents that generalize across population-varying MGs. Instead of learning a unimodal policy, each agent learns a policy set that is formed by effective strategies across a variety of games. We propose Meta Representations for Agents (MRA) that explicitly models the game-common and game-specific strategic knowledge. By representing the policy sets with multi-modal latent policies, the common strategic knowledge and diverse strategic modes are discovered with an iterative optimization procedure. We prove that as an approximation to a constrained mutual information maximization objective, the learned policies can reach Nash Equilibrium in every evaluation MG under the assumption of Lipschitz game on a sufficiently large latent space. When deploying it at practical latent models with limited size, fast adaptation can be achieved by leveraging the first-order gradient information. Extensive experiments show the effectiveness of MRA on both training performance and generalization ability in hard and unseen games.


翻译:在多试剂强化学习中,代理商在单一马可夫游戏(MG)中学习的行为通常限于特定代理商数目(即人口规模)。每个由不同人口规模诱导的单一MG都可能拥有独特的最佳联合战略和具体游戏知识,这些战略和知识以现代多试算法独立建模。在这项工作中,我们侧重于创建跨人口变化的MGs的通用代理商。每个代理商不学习单一模式政策,而是学习由各种游戏的有效战略构成的一套政策。我们提议为代理商提供明确模拟游戏常见和游戏特定战略知识的MMAS代表(MRA),通过代表具有多模式潜伏政策的政策组合,共同的战略知识和不同战略模式以迭代优化程序被发现。我们证明,作为对受限制的相互信息最大化目标的一种近似,在假定利普西茨游戏在足够大的潜在空间上形成有效战略,每个评价MGMS(Nash Equililiblicriumiumium)的每次评价中,每个评价都能够将精度应用规模有限的实际潜模型,在利用第一模型时,通过利用MMIS级能力测试和深层数据测试的硬度,从而显示硬度信息,可以实现。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
专知会员服务
53+阅读 · 2019年12月22日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年10月15日
Arxiv
5+阅读 · 2020年6月16日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
13+阅读 · 2019年1月26日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
Arxiv
0+阅读 · 2021年10月15日
Arxiv
5+阅读 · 2020年6月16日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
13+阅读 · 2019年1月26日
Top
微信扫码咨询专知VIP会员