Generative Adversarial Networks are notoriously challenging to train. The underlying minmax optimization is highly susceptible to the variance of the stochastic gradient and the rotational component of the associated game vector field. To tackle these challenges, we propose the Lookahead algorithm for minmax optimization, originally developed for single objective minimization only. The backtracking step of our Lookahead-minmax naturally handles the rotational game dynamics, a property which was identified to be key for enabling gradient ascent descent methods to converge on challenging examples often analyzed in the literature. Moreover, it implicitly handles high variance without using large mini-batches, known to be essential for reaching state of the art performance. Experimental results on MNIST, SVHN, CIFAR-10, and ImageNet demonstrate a clear advantage of combining Lookahead-minmax with Adam or extragradient, in terms of performance and improved stability, for negligible memory and computational cost. Using 30-fold fewer parameters and 16-fold smaller minibatches we outperform the reported performance of the class-dependent BigGAN on CIFAR-10 by obtaining FID of 12.19 without using the class labels, bringing state-of-the-art GAN training within reach of common computational resources.


翻译:光头- 光头- 光头- 光头- 光标的回溯性步骤自然会处理旋转游戏动态, 其属性被确定为使梯度升降方法能够汇集文献经常分析的具有挑战性的例子的关键。 此外,它不使用已知对达到艺术性能状态至关重要的大型微型电池,暗含地处理巨大的差异,而无需使用大型微型电池,这是达到艺术性能状态的已知必要条件。 为应对这些挑战,我们提议了最初为单一目标最小化而开发的光头软体优化计算法。 我们的 Lookahead 算法最初只针对单一目标最小化的最小化法, 自然地处理旋转式游戏动态的回溯性步骤, 这一属性被确定为使梯度升降法方法能够汇集到文献中经常分析的具有挑战性的实例的关键。 此外,它不使用普通的GAAN 10( CIFAR- 10 10), 使用普通的GA( 12.19) 计算工具,在不使用普通的GA( GA) 10) 上达到普通的GAFID 。

1
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
195+阅读 · 2019年9月30日
生成对抗网络GANs学习路线
专知
36+阅读 · 2019年6月10日
必读!生成对抗网络GAN论文TOP 10
全球人工智能
6+阅读 · 2019年3月19日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
15+阅读 · 2018年6月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
GAN猫的脸
机械鸡
11+阅读 · 2017年7月8日
Arxiv
0+阅读 · 2021年8月24日
Arxiv
5+阅读 · 2021年1月7日
Arxiv
5+阅读 · 2020年10月22日
Arxiv
3+阅读 · 2019年10月31日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关VIP内容
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
195+阅读 · 2019年9月30日
相关资讯
生成对抗网络GANs学习路线
专知
36+阅读 · 2019年6月10日
必读!生成对抗网络GAN论文TOP 10
全球人工智能
6+阅读 · 2019年3月19日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
15+阅读 · 2018年6月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
GAN猫的脸
机械鸡
11+阅读 · 2017年7月8日
相关论文
Arxiv
0+阅读 · 2021年8月24日
Arxiv
5+阅读 · 2021年1月7日
Arxiv
5+阅读 · 2020年10月22日
Arxiv
3+阅读 · 2019年10月31日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
10+阅读 · 2018年3月23日
Top
微信扫码咨询专知VIP会员