Revision game is a very new model formulating the situation where players can prepare and revise their actions in advance before a deadline when payoffs are realized. We identify the Limited Retaliation (LR) strategy for revision games which sustains a high level of mutual cooperation and is robust to players' occasional mistakes. The LR strategy stipulates that, (1) players first follow a recommended cooperative plan; (2) if anyone deviates from the plan, the LR player retaliates by using the defection action for a limited duration; (3) after the retaliation, the LR player returns to the cooperative plan. The LR strategy has two good features. First, it is vengeful, in the sense that it deters the opponent from non-cooperative action by threatening a retaliation. Second, it is forgiving, because it returns to cooperation after a proper retaliation. The vengeful feature makes it constitute a subgame perfect equilibrium, while the forgiving feature makes it tolerate occasional mistakes. These are in clear contrast to the existing strategies for revision games which all assume players are extremely grim and never forgive. Besides its contribution as a new robust and welfare-optimizing equilibrium strategy, our results about LR strategy can also be used to explain how easy cooperation can happen, and why forgiveness emerges in real-world multi-agent interactions.


翻译:修订游戏是一个非常新的模式,它展示了球员可在实现付款的最后期限之前预先准备和修改其行动的情况。我们确定了用于修订游戏的有限报复(LR)战略,该战略维持了高度的相互合作,并且对球员偶尔的错误十分有力。LR战略规定,(1)球员首先遵循建议的合作计划;(2)如果球员在一定的时间内使用脱节行动,LR球员进行报复;(3)报复之后,LR球员返回合作计划。LR战略有两个好的特点。首先,它具有报复性,因为它通过威胁报复来阻止对手采取不合作的行动。第二,它具有宽恕性,因为它在进行适当报复后又回到合作。它构成一个子组合的完美平衡,而宽恕特征则使它容忍偶尔犯错误。这些明显与现有的修订游戏战略形成对照,所有球员都认为这些策略都非常严酷,永远不会原谅。除了作为新的稳健和福利可操作的平衡战略的贡献外,它还能够阻止对手采取非合作行动。第二,因为它是宽容的,因为它在适当的报复之后又可以解释我们是如何在现实中进行宽恕的相互作用。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
逆强化学习几篇论文笔记
CreateAMind
9+阅读 · 2018年12月13日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
12+阅读 · 2018年4月27日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年2月9日
Arxiv
0+阅读 · 2022年2月8日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
逆强化学习几篇论文笔记
CreateAMind
9+阅读 · 2018年12月13日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
12+阅读 · 2018年4月27日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员