Wasserstein GANs are based on the idea of minimising the Wasserstein distance between a real and a generated distribution. We provide an in-depth mathematical analysis of differences between the theoretical setup and the reality of training Wasserstein GANs. In this work, we gather both theoretical and empirical evidence that the WGAN loss is not a meaningful approximation of the Wasserstein distance. Moreover, we argue that the Wasserstein distance is not even a desirable loss function for deep generative models, and conclude that the success of Wasserstein GANs can in truth be attributed to a failure to approximate the Wasserstein distance.


翻译:瓦森斯坦GANs基于将实际分布和生成分布之间的瓦森斯坦距离最小化的理念,我们对培训瓦森斯坦GANs的理论设置和现实之间的差异提供了深入的数学分析,在这项工作中,我们收集理论和经验证据,证明WGAN的损失不是瓦森斯坦距离的有意义的近似值,此外,我们争辩说,瓦森斯坦距离甚至不是深层基因模型的可取损失函数,我们的结论是,瓦塞尔斯坦GANs的成功可以归结于瓦森斯坦距离的近似值。

0
下载
关闭预览

相关内容

不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
59+阅读 · 2020年12月11日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
专知会员服务
61+阅读 · 2020年3月4日
【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
How (Non-)Optimal is the Lexicon?
Arxiv
0+阅读 · 2021年4月29日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
5+阅读 · 2018年1月30日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关论文
How (Non-)Optimal is the Lexicon?
Arxiv
0+阅读 · 2021年4月29日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
5+阅读 · 2018年1月30日
Arxiv
12+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员