Despite of the success of Generative Adversarial Networks (GANs) for image generation tasks, the trade-off between image diversity and visual quality are an well-known issue. Conventional techniques achieve either visual quality or image diversity; the improvement in one side is often the result of sacrificing the degradation in the other side. In this paper, we aim to achieve both simultaneously by improving the stability of training GANs. A key idea of the proposed approach is to implicitly regularizing the discriminator using a representative feature. For that, this representative feature is extracted from the data distribution, and then transferred to the discriminator for enforcing slow updates of the gradient. Consequently, the entire training process is stabilized because the learning curve of discriminator varies slowly. Based on extensive evaluation, we demonstrate that our approach improves the visual quality and diversity of state-of-the art GANs.


翻译:尽管Generation Adversarial Networks(GANs)成功地完成了图像生成任务,但图像多样性和视觉质量之间的取舍是一个众所周知的问题。常规技术既能达到视觉质量,也能达到图像多样性;一方面的改善往往是牺牲另一面退化的结果。在本文中,我们的目标是同时通过提高培训GANs的稳定性来实现这两个目标。拟议方法的一个关键想法是使用具有代表性的特征,隐含地规范歧视者。为此,从数据分布中提取了这一代表特征,然后转移给执行缓慢更新梯度的导师。因此,整个培训过程之所以稳定下来,是因为歧视者的学习曲线变化缓慢。根据广泛的评估,我们证明我们的方法提高了GANs的视觉质量和艺术的多样化。

7
下载
关闭预览

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
Top
微信扫码咨询专知VIP会员