Punishing those who refuse to participate in common efforts is a known and intensively studied way to maintain cooperation among self-interested agents. But this act is costly, hence punishers who are generally also engaged in the original joint venture, become vulnerable, which jeopardizes the effectiveness of this incentive. As an alternative, we may hire special players, whose only duty is to watch the population and punish defectors. Such a policelike or mercenary punishment can be maintained by a tax-based fund. If this tax is negligible, a cyclic dominance may emerge among different strategies. When this tax is relevant then this solution disappears. In the latter case, the fine level becomes a significant factor that determines whether punisher players coexist with cooperators or alternatively with defectors. The maximal average outcome can be reached at an intermediate cost value of punishment. Our observations highlight that we should take special care when such kind of punishment and accompanying tax are introduced to reach a collective goal.


翻译:惩罚那些拒绝参加共同努力的人是众所周知的、经过深入研究的维护自身利益代理人之间合作的方法。但是,这一行为代价高昂,因此一般也参与原始合资企业的处罚者变得脆弱,从而危及这一奖励措施的效力。作为替代办法,我们可以雇用特别的玩家,他们的唯一职责是监视人口并惩罚叛逃者。这种警察式或雇佣军惩罚可由基于税收的基金维持。如果这种税种微不足道,则可能出现循环支配,当这种税种适切时,这种解决办法就会消失。在后一种情况下,罚款水平成为决定惩罚者是否与合作者或与叛逃者并存的重要因素。最高平均结果可以达到中等程度的惩罚成本价值。我们的意见强调,在引入这种惩罚和附带税来达到集体目标时,我们应该特别小心。

0
下载
关闭预览

相关内容

专知会员服务
39+阅读 · 2020年9月6日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
The Price of Majority Support
Arxiv
0+阅读 · 2022年1月28日
Arxiv
0+阅读 · 2022年1月26日
Arxiv
0+阅读 · 2022年1月26日
Arxiv
23+阅读 · 2017年3月9日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员