Entities in multi-agent systems may seek conflicting subobjectives, and this leads to competition between them. To address performance degradation due to competition, we consider a bi-level lottery where a social planner at the high level selects a reward first and, sequentially, a set of players at the low level jointly determine a Nash equilibrium given the reward. The social planner is faced with efficiency losses where a Nash equilibrium of the lottery game may not coincide with the social optimum. We propose an optimal bi-level lottery design problem as finding the least reward and perturbations such that the induced Nash equilibrium produces the socially optimal payoff. We formally characterize the price of anarchy and the behavior of public goods and Nash equilibrium with respect to the reward and perturbations. We relax the optimal bi-level lottery design problem via a convex approximation and identify mild sufficient conditions under which the approximation is exact.


翻译:多试剂系统中的实体可能会寻求相互矛盾的次级目标,这可能导致它们之间的竞争。为了解决竞争导致的绩效下降问题,我们考虑一种双级彩票,在这种彩票中,高层的社会规划者首先选择奖励,然后顺序排列,一组低层的玩家共同决定给予奖励的纳什平衡。如果彩票游戏的纳什平衡可能与社会最佳水平不相吻合,那么社会规划者面临效率损失。我们提出一个最佳的双级彩票设计问题,即找到最少的奖赏和干扰,如导致的纳什平衡产生社会最佳的回报。我们正式描述无政府状态的价格以及公共商品的行为和纳什平衡在奖赏和扰动方面的行为。我们通过螺旋近似法放松最佳的双级彩票设计问题,并找出精确接近的温和充足条件。

0
下载
关闭预览

相关内容

【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
220+阅读 · 2020年6月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【OpenAI】深度强化学习关键论文列表
专知
11+阅读 · 2018年11月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
An Overview on Optimal Flocking
Arxiv
0+阅读 · 2021年1月22日
Arxiv
0+阅读 · 2021年1月21日
Arxiv
3+阅读 · 2018年12月21日
Arxiv
3+阅读 · 2018年1月31日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【OpenAI】深度强化学习关键论文列表
专知
11+阅读 · 2018年11月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员