We study mechanisms of synchronisation, coordination, and equilibrium selection in two-player coordination games on multilayer networks. We apply the approach from evolutionary game theory with three possible update rules: the replicator dynamics (RD), the best response (BR), and the unconditional imitation (UI). Players interact on a two-layer random regular network. The population on each layer plays a different game, with layer I preferring the opposite strategy to layer II. We measure the difference between the two games played on the layers by a difference in payoffs $\Delta S$ while the inter-connectedness is measured by a node overlap parameter $q$. We discover a critical value $q_c(\Delta S)$ below which layers do not synchronise. For $q>q_c$ in general both layers coordinate on the same strategy. Surprisingly, there is a symmetry breaking in the selection of equilibrium -- for RD and UI there is a phase where only the payoff-dominant equilibrium is selected. Our work is an example of previously observed differences between the update rules on a single network. However, we took a novel approach with the game being played on two inter-connected layers. As we show, the multilayer structure enhances the abundance of the Pareto-optimal equilibrium in coordination games with imitative update rules.


翻译:我们研究了在多层网络上的二人协调游戏中的同步、协调和均衡选择机制。我们应用了三种可能的更新规则——复制动力学(RD)、最佳反应(BR)和无条件模仿(UI)——来进行进化博弈论的研究。玩家在一个双层随机正则网络上交互,每个层次的人群都玩一个不同的游戏,其中层I更喜欢相反的策略,而层II更喜欢相同的策略。我们通过一个支付差异$\Delta S$来衡量在两层上博弈中所扮演的两个游戏之间的差异,而互联系数则通过节点重叠参数$q$来衡量。我们发现,在$q_c$以下的关键值处,层不会同步。对于$q>q_c$,通常两层会协调选择相同的策略。令人惊讶的是,在均衡选择方面存在对称性破缺——对于RD和UI,存在一个阶段只选择占优地位的均衡。我们的工作是单个网络上观察到不同更新规则之间的差异的例子。然而,我们采用了一个新颖的方法,游戏在两个相互连接的层上进行。正如我们展示的那样,多层结构增强了具有模仿更新规则的协调游戏中帕累托最优均衡的丰富程度。

0
下载
关闭预览

相关内容

《分布式多智能体深度强化学习:竞争性博弈》最新论文
专知会员服务
125+阅读 · 2023年3月16日
【硬核书】矩阵代数基础,248页pdf
专知会员服务
85+阅读 · 2021年12月9日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
110+阅读 · 2020年5月15日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
92+阅读 · 2021年5月17日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
《分布式多智能体深度强化学习:竞争性博弈》最新论文
专知会员服务
125+阅读 · 2023年3月16日
【硬核书】矩阵代数基础,248页pdf
专知会员服务
85+阅读 · 2021年12月9日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
110+阅读 · 2020年5月15日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员