The multiple partners matching game is a cooperative profit-sharing game, which generalizes the classic matching game by allowing each player to have more than one partner. The core is one of the most important concepts in cooperative game theory, which consists all possible ways of allocating the total profit of the game among individual players such that the grand coalition remains intact. For the multiple partners matching game, the core may be empty in general [Deng et al., Algorithmic aspects of the core of combinatorial optimization games, Math. Oper. Res., 1999.]; even when the core is non-empty, the core membership problem is intractable in general [Biro et al., The stable fixtures problem with payments, Games Econ. Behav., 2018]. Thus we study approximate core allocations for the multiple partners matching game, and provide an LP-based mechanism guaranteeing that no coalition is paid less than $2/3$ times the profit it makes on its own. Moreover, we show that the factor $2/3$ is best possible in general, but can be improved depending on how severely constrained the players are. Our result generalizes the recent work of Vazirani [Vazirani, The general graph matching game: approximate core, arXiv, 2021] from matching games to multiple partners matching games.


翻译:多伙伴匹配游戏是一种合作分享利润的游戏,它通过允许每个玩家拥有一个以上的伙伴来概括经典匹配游戏。核心是合作游戏理论中最重要的概念之一,它包括将游戏的全部利润分配给各个玩家的所有可能方式,这样大联盟仍然完好无损。对于多个伙伴匹配游戏来说,核心一般是空的[Deng et al., 组合优化游戏核心的算法方面, Math. Oper. Res. 1999];即使核心不是空的,核心会籍问题在一般情况下也是难以解决的[Biro et al., 支付稳定固定装置问题,游戏Econ. Behav., 2018]。因此我们研究多个伙伴匹配游戏的大致核心分配,并提供基于LP的机制,保证没有联盟的薪酬比它本身的利润低2/3美元。此外,我们显示,总体的系数为2/3美元,但取决于玩家受到多大的制约,核心会籍问题是可以改进的。我们的结果是,Vaziran Global compeal compeal:Vaz common commonal commonX1, common gamegame game game game.

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年9月7日
Arxiv
0+阅读 · 2021年9月5日
Arxiv
0+阅读 · 2021年9月4日
Arxiv
9+阅读 · 2021年6月21日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员