In this paper, we propose a novel loss function for training Generative Adversarial Networks (GANs) aiming towards deeper theoretical understanding as well as improved stability and performance for the underlying optimization problem. The new loss function is based on cumulant generating functions giving rise to \emph{Cumulant GAN}. Relying on a recently-derived variational formula, we show that the corresponding optimization problem is equivalent to R{\'e}nyi divergence minimization, thus offering a (partially) unified perspective of GAN losses: the R{\'e}nyi family encompasses Kullback-Leibler divergence (KLD), reverse KLD, Hellinger distance and $\chi^2$-divergence. Wasserstein GAN is also a member of cumulant GAN. In terms of stability, we rigorously prove the linear convergence of cumulant GAN to the Nash equilibrium for a linear discriminator, Gaussian distributions and the standard gradient descent ascent algorithm. Finally, we experimentally demonstrate that image generation is more robust relative to Wasserstein GAN and it is substantially improved in terms of both inception score and Fr\'echet inception distance when both weaker and stronger discriminators are considered.


翻译:在本文中,我们提出一个新的损失功能,用于培训“创造反逆网络”(GANs),目的是加深理论理解,提高基本优化问题的稳定性和性能。新的损失功能的基础是产生产生功能的累积产生功能,从而产生 emph{Cumulant GAN}。依靠最近产生的变式公式,我们表明相应的优化问题相当于R'e}尼差最小化,从而提供了一种(部分的)统一GAN损失的视角:R {e}nyi家族包括了库尔背利利利利利差差异(KLD)、逆向KLD、Hellinger距离和$\chi ⁇ 2$2$-diverence。Wasserstein GAN也是保利GAN的成员。在稳定方面,我们严格地证明占保利的GAN与纳什平衡的线性融合对于一个线性歧视者、高萨的分布和标准梯度下降算值。最后,我们实验性地表明,图像生成与瓦列尔斯坦根GAN的距离相比更加牢固,而且当开始以来,它都大大改进了。

0
下载
关闭预览

相关内容

GAN:生成性对抗网,深度学习模型的一种,在神经网络模型中引入竞争机制,非常流行。
【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
专知会员服务
94+阅读 · 2021年2月6日
生成对抗网络GAN在各领域应用研究进展(中文版),37页pdf
专知会员服务
150+阅读 · 2020年12月30日
生成对抗网络GAN的发展与最新应用
专知会员服务
125+阅读 · 2020年8月13日
生成式对抗网络GAN异常检测
专知会员服务
115+阅读 · 2019年10月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
SRGAN论文笔记
统计学习与视觉计算组
109+阅读 · 2018年4月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
GAN猫的脸
机械鸡
11+阅读 · 2017年7月8日
Arxiv
5+阅读 · 2021年1月7日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
4+阅读 · 2018年3月23日
VIP会员
相关VIP内容
【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
专知会员服务
94+阅读 · 2021年2月6日
生成对抗网络GAN在各领域应用研究进展(中文版),37页pdf
专知会员服务
150+阅读 · 2020年12月30日
生成对抗网络GAN的发展与最新应用
专知会员服务
125+阅读 · 2020年8月13日
生成式对抗网络GAN异常检测
专知会员服务
115+阅读 · 2019年10月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
SRGAN论文笔记
统计学习与视觉计算组
109+阅读 · 2018年4月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
GAN猫的脸
机械鸡
11+阅读 · 2017年7月8日
Top
微信扫码咨询专知VIP会员