In this work, we establish near-linear and strong convergence for a natural first-order iterative algorithm that simulates Von Neumann's Alternating Projections method in zero-sum games. First, we provide a precise analysis of Optimistic Gradient Descent/Ascent (OGDA) -- an optimistic variant of Gradient Descent/Ascent -- for \emph{unconstrained} bilinear games, extending and strengthening prior results along several directions. Our characterization is based on a closed-form solution we derive for the dynamics, while our results also reveal several surprising properties. Indeed, our main algorithmic contribution is founded on a geometric feature of OGDA we discovered; namely, the limit points of the dynamics are the orthogonal projection of the initial state to the space of attractors. Motivated by this property, we show that the equilibria for a natural class of \emph{constrained} bilinear games are the intersection of the unconstrained stationary points with the corresponding probability simplexes. Thus, we employ OGDA to implement an Alternating Projections procedure, converging to an $\epsilon$-approximate Nash equilibrium in $\widetilde{\mathcal{O}}(\log^2(1/\epsilon))$ iterations. Our techniques supplement the recent work in pursuing last-iterate guarantees in min-max optimization. Finally, we illustrate an -- in principle -- trivial reduction from any game to the assumed class of instances, without altering the space of equilibria.


翻译:在这项工作中,我们为自然第一阶迭代算法建立了近线和紧密的趋同关系,该算法在零和游戏中模拟Von Neumann的变换预测法。首先,我们精确地分析了最佳梯度源/感源/感源(OGDA) -- -- 一种乐观的梯度源/感源/感源变体 -- -- 沿几个方向扩展和加强先前的结果。我们的定性是基于我们为动态产生的封闭式定式解决方案,而我们的结果也揭示出一些惊人的特性。事实上,我们的主要算法贡献基于我们发现的OGBDA的几何性特征;即动态的极限点是向吸引者空间的初始状态的正方位投影。受此属性的驱使,我们显示自然等级的宽度差(emph{不那么受限制的)双线游戏是我们不相容定的定点与相应的概率简单。因此,我们用OGBDA来从一个不精确的变数变数变数的变数的变数性变数,也就是我们最后的变数的变数的变数的变数的变数规则,也就是的变数-我们最后的变数规则的变数的变数的变数的变数的变数,也就是的变数的变数的变数方法。

0
下载
关闭预览

相关内容

机器学习组合优化
专知会员服务
108+阅读 · 2021年2月16日
专知会员服务
50+阅读 · 2020年12月14日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】SLAM相关资源大列表
机器学习研究会
10+阅读 · 2017年8月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
On the ESL algorithm for solving energy games
Arxiv
0+阅读 · 2021年10月14日
Arxiv
0+阅读 · 2021年10月13日
VIP会员
相关VIP内容
机器学习组合优化
专知会员服务
108+阅读 · 2021年2月16日
专知会员服务
50+阅读 · 2020年12月14日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】SLAM相关资源大列表
机器学习研究会
10+阅读 · 2017年8月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员