Nearly a decade ago, Azrieli and Shmaya introduced the class of $\lambda$-Lipschitz games in which every player's payoff function is $\lambda$-Lipschitz with respect to the actions of the other players. They showed that such games admit $\epsilon$-approximate pure Nash equilibria for certain settings of $\epsilon$ and $\lambda$. They left open, however, the question of how hard it is to find such an equilibrium. In this work, we develop a query-efficient reduction from more general games to Lipschitz games. We use this reduction to show a query lower bound for any randomized algorithm finding $\epsilon$-approximate pure Nash equilibria of $n$-player, binary-action, $\lambda$-Lipschitz games that is exponential in $\frac{n\lambda}{\epsilon}$. In addition, we introduce ``Multi-Lipschitz games,'' a generalization involving player-specific Lipschitz values, and provide a reduction from finding equilibria of these games to finding equilibria of Lipschitz games, showing that the value of interest is the sum of the individual Lipschitz parameters. Finally, we provide an exponential lower bound on the deterministic query complexity of finding $\epsilon$-approximate correlated equilibria of $n$-player, $m$-action, $\lambda$-Lipschitz games for strong values of $\epsilon$, motivating the consideration of explicitly randomized algorithms in the above results. Our proof is arguably simpler than those previously used to show similar results.


翻译:近十年前, Azriririri和Shmaya 引入了 $ lambda$- Lipschitz 类游戏, 其中每个玩家的回报功能是 $\ lambda$- Lipschitz 相对于其他玩家的动作来说, $\ lambda$- Lipschitz 。 显示这些游戏接纳了 $\ epsilon$- 纯 Nash equilibria, 某些设置的 $\ epsilon$ 和 $\ lambda$ 。 然而, 问题是如何找到更简单的平衡。 在这项工作中, 我们开发了一个从更普通的游戏到利普西茨游戏 。 我们使用这种更普通的游戏 $- libschitz 的直径直率值, 提供了一个比普通的利普利比 利比萨利伯茨 的直率值 。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月9日
Arxiv
4+阅读 · 2020年1月17日
Arxiv
8+阅读 · 2019年2月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员