Generative Adversarial Networks (GANs) have been widely applied in different scenarios thanks to the development of deep neural networks. The original GAN was proposed based on the non-parametric assumption of the infinite capacity of networks. However, it is still unknown whether GANs can generate realistic samples without any prior information. Due to the overconfident assumption, many issues remain unaddressed in GANs' training, such as non-convergence, mode collapses, gradient vanishing. Regularization and normalization are common methods of introducing prior information to stabilize training and improve discrimination. Although a handful number of regularization and normalization methods have been proposed for GANs, to the best of our knowledge, there exists no comprehensive survey which primarily focuses on objectives and development of these methods, apart from some in-comprehensive and limited scope studies. In this work, we conduct a comprehensive survey on the regularization and normalization techniques from different perspectives of GANs training. First, we systematically describe different perspectives of GANs training and thus obtain the different objectives of regularization and normalization. Based on these objectives, we propose a new taxonomy. Furthermore, we compare the performance of the mainstream methods on different datasets and investigate the regularization and normalization techniques that have been frequently employed in SOTA GANs. Finally, we highlight potential future directions of research in this domain.


翻译:由于发展了深层神经网络,不同情景中广泛应用了生成的Adversarial Networks(GANs),最初的GAN是根据对网络的无限能力的非参数假设提出的,然而,除了一些全面而有限的范围研究之外,还不清楚GANs是否能够产生现实的样本。由于过于自信的假设,许多GANs培训中的问题仍然没有得到解决,例如非一致、模式崩溃、梯度消失。正规化和正常化是事先引入信息以稳定培训和改善歧视的常见方法。虽然根据我们的知识,为GAN提出了少量的正规化和正常化方法,但我们最了解了这些方法,但没有提出任何全面调查,主要侧重于这些方法的目标和开发,除了一些全面的和有限的范围研究之外。在这项工作中,我们从GANs培训的不同角度对正规化和正常化技术进行了全面调查。首先,我们系统地描述GANs培训的不同观点,从而获得不同的正规化和正常化目标。根据这些目标,我们提出了新的正规化和正常化方法,我们提出了新的分类方法建议。此外,我们经常地比较了GAN系统使用的主流研究方法的绩效。

0
下载
关闭预览

相关内容

专知会员服务
61+阅读 · 2020年3月4日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
16+阅读 · 2021年7月18日
A Survey on Data Augmentation for Text Classification
Arxiv
103+阅读 · 2021年6月8日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
13+阅读 · 2020年8月3日
Generative Adversarial Networks: A Survey and Taxonomy
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
VIP会员
相关VIP内容
专知会员服务
61+阅读 · 2020年3月4日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
相关资讯
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
16+阅读 · 2021年7月18日
A Survey on Data Augmentation for Text Classification
Arxiv
103+阅读 · 2021年6月8日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
13+阅读 · 2020年8月3日
Generative Adversarial Networks: A Survey and Taxonomy
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Top
微信扫码咨询专知VIP会员