In this paper we study the convergence of generative adversarial networks (GANs) from the perspective of the informativeness of the gradient of the optimal discriminative function. We show that GANs without restriction on the discriminative function space commonly suffer from the problem that the gradient produced by the discriminator is uninformative to guide the generator. By contrast, Wasserstein GAN (WGAN), where the discriminative function is restricted to $1$-Lipschitz, does not suffer from such a gradient uninformativeness problem. We further show in the paper that the model with a compact dual form of Wasserstein distance, where the Lipschitz condition is relaxed, also suffers from this issue. This implies the importance of Lipschitz condition and motivates us to study the general formulation of GANs with Lipschitz constraint, which leads to a new family of GANs that we call Lipschitz GANs (LGANs). We show that LGANs guarantee the existence and uniqueness of the optimal discriminative function as well as the existence of a unique Nash equilibrium. We prove that LGANs are generally capable of eliminating the gradient uninformativeness problem. According to our empirical analysis, LGANs are more stable and generate consistently higher quality samples compared with WGAN.


翻译:在本文中,我们从最佳歧视功能的梯度信息化的角度研究基因对抗网络(GANs)的趋同问题,我们从最佳歧视功能的梯度信息化的角度来研究基因对抗网络(GANs)的趋同问题,我们表明,不加限制地对歧视功能空间进行限制的GANs通常会遇到一个问题,即歧视者产生的梯度对于引导生成器而言是缺乏教益的。相反,Wasserstein GAN(WGAN)(WGAN),其歧视功能仅限于1美元,没有受到这种梯度不知情问题的影响。我们进一步在文件中显示,具有瓦瑟斯坦距离这一紧凑的双重形式的模型,即利普申茨条件放松,也受这一问题的影响。这意味着Lipschitz条件的重要性,并激励我们研究GANs(Lipschitz)的总体配方,这导致了我们称之为Lipschitz GANs(LGANs)的新组。我们表明,LGANs保证了最佳的区别性功能的存在和独特性纳什平衡的存在。我们证明,LGANs总体上能够消除梯度和高度分析。

8
下载
关闭预览

相关内容

机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年4月30日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关VIP内容
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
Top
微信扫码咨询专知VIP会员