Motivated by the recent work of Mangoubi and Vishnoi (STOC 2021), we propose a variant of the min-max optimization framework where the max-player is constrained to update the maximization variable in a greedy manner until it reaches a *first-order* stationary point. We present an algorithm that provably converges to an approximate local equilibrium for our framework from any initialization and for nonconvex-nonconcave loss functions. Compared to the second-order algorithm of Mangoubi and Vishnoi, whose iteration bound is polynomial in the dimension, our algorithm is first-order and its iteration bound is independent of dimension. We empirically evaluate our algorithm on challenging nonconvex-nonconcave test-functions and loss functions that arise in GAN training. Our algorithm converges on these test functions and, when used to train GANs on synthetic and real-world datasets, trains stably and avoids mode collapse.


翻译:以曼古比和维什诺伊(STOC 2021)最近的工作为动力,我们提出了一个微量成形优化框架的变体,其中最大玩家不得不以贪婪的方式更新最大化变量,直到达到*第一阶* 固定点。我们提出了一个算法,从任何初始化和非混凝土损失函数中可以看出,我们的框架与近似地方平衡。与曼古比和维什诺伊的第二阶算法相比,曼古比和维什诺伊的二次算法,其迭代法在维度上是多等的,我们的算法是第一级,其迭代法是独立于维度的。我们从经验上评估了我们在GAN培训中出现的非convers-nonconcable测试功能和损失函数方面的算法。我们的算法汇集了这些测试功能,在用于培训合成和真实世界数据集的GANs时,我们进行稳定培训和避免模式崩溃。

0
下载
关闭预览

相关内容

已删除
将门创投
3+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月29日
Arxiv
0+阅读 · 2021年7月27日
Arxiv
0+阅读 · 2021年7月26日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
3+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员