In many multi-agent spatiotemporal systems, agents operate under the influence of shared, unobserved variables (e.g., the play a team is executing in a game of basketball). As a result, the trajectories of the agents are often statistically dependent at any given time step; however, almost universally, multi-agent models implicitly assume the agents' trajectories are statistically independent at each time step. In this paper, we introduce baller2vec++, a multi-entity Transformer that can effectively model coordinated agents. Specifically, baller2vec++ applies a specially designed self-attention mask to a mixture of location and "look-ahead" trajectory sequences to learn the distributions of statistically dependent agent trajectories. We show that, unlike baller2vec (baller2vec++'s predecessor), baller2vec++ can learn to emulate the behavior of perfectly coordinated agents in a simulated toy dataset. Additionally, when modeling the trajectories of professional basketball players, baller2vec++ outperforms baller2vec by a wide margin.


翻译:在许多多试剂时空系统中,代理商在共享的、不受观察的变量的影响下运作(例如,一个团队在篮球游戏中执行的游戏),结果,代理商的轨迹在任何特定时间步骤中往往在统计上依赖任何一个步骤;然而,几乎普遍地,多试样模型暗含地假定,代理商的轨迹在每一个步骤中都是在统计上独立的。在本文件中,我们引入了Baller2vec++,一个能够有效模拟协调代理商的多实体变异器。具体地说,Baller2vec++将一个专门设计的自我注意面罩应用到一个位置和“视觉”轨迹序列的混合体中来学习统计依赖性代理商轨迹的分布。我们表明,与Baller2vec(baller2vec+w)的前身不同,Baller2vec++可以学习在模拟的玩具数据集中模仿完全协调的代理商的行为。此外,当模拟专业篮球员的轨迹时,Baller2vec+dgetforforps blace2c。

0
下载
关闭预览

相关内容

【NeurIPS2021】去栅格化的矢量图识别
专知会员服务
15+阅读 · 2021年11月18日
专知会员服务
27+阅读 · 2021年8月2日
专知会员服务
15+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
2019必读的十大深度强化学习论文
专知会员服务
58+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
已删除
将门创投
3+阅读 · 2019年11月25日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年11月20日
Arxiv
7+阅读 · 2020年6月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年11月25日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员