Gale-Shapley introduced a matching problem between two sets of agents where each agent on one side has a preference over the agents of the other side and proved algorithmically the existence of a pairwise stable matching (i.e. no uncoupled pair can be better off by matching). Shapley-Shubik, Demange-Gale, and many others extended the model by allowing monetary transfers. In this paper, we study an extension where matched couples obtain their payoffs as the outcome of a strategic game and more particularly a solution concept that combines Gale-Shapley pairwise stability with a constrained Nash equilibrium notion (no player can increase its payoff by playing a different strategy without violating the participation constraint of the partner). Whenever all couples play zero-sum matrix games, strictly competitive bi-matrix games, or infinitely repeated bi-matrix games, we can prove that a modification of some algorithms in the literature converge to an $\varepsilon$-stable allocation in at most $O(\frac{1}{\varepsilon})$ steps where each step is polynomial (linear with respect to the number of players and polynomial of degree at most 5 with respect to the number of pure actions per player).


翻译:Gale-Shapley引入了两组代理商之间的匹配问题,两组代理商中一方的每个代理商都优于另一方的代理商,并在逻辑上证明存在一种对称稳定的匹配(即没有非混合配对可以通过配对更好)。 Shapley-Shubik、Demange-Gale和许多其他代理商都通过允许货币转移来扩展模式。 在本文中,我们研究一个扩展,让一面的代理商在战略游戏的结果中获得报酬,更具体地说,一个解决方案概念,将Gale-Shapley的双向稳定与受限制的纳什平衡概念相结合(任何玩家都无法通过不违反伴侣参与限制的不同策略来增加其报酬 ) 。 当所有夫妇玩零和矩阵游戏, 严格的竞争性双矩阵游戏, 或无限重复的双矩阵游戏, 我们可以证明文学中的某些算法的修改在最多O(frac{1unvarepleislon} 和受限制的纳什平衡概念(任何步骤,而每个步骤都是多级的游戏员人数和每个等级的精度)。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年9月18日
Arxiv
12+阅读 · 2021年6月29日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员