Generative adversarial networks (GANs) with clustered latent spaces can perform conditional generation in a completely unsupervised manner. In the real world, the salient attributes of unlabeled data can be imbalanced. However, existing unsupervised conditional GANs cannot cluster attributes of these data in their latent spaces properly because they assume uniform distributions of the attributes. To address this problem, we theoretically derive Stein latent optimization that provides reparameterizable gradient estimations of the latent distribution parameters assuming a Gaussian mixture prior in a continuous latent space. Structurally, we introduce an encoder network and novel unsupervised conditional contrastive loss to ensure that data generated from a single mixture component represent a single attribute. We confirm that the proposed method, named Stein Latent Optimization for GANs (SLOGAN), successfully learns balanced or imbalanced attributes and achieves state-of-the-art unsupervised conditional generation performance even in the absence of attribute information (e.g., the imbalance ratio). Moreover, we demonstrate that the attributes to be learned can be manipulated using a small amount of probe data.


翻译:具有集束潜伏空间的生成对抗网络(GANs) 能够以完全不受监督的方式产生有条件的生成。 在现实世界中,未贴标签数据的显著特征可能不平衡。 但是,现有的未经监督的有条件GANs无法在其潜伏空间中适当地组合这些数据的属性, 因为他们承担了属性的统一分布。 为了解决这个问题, 我们理论上得出 Stein 潜伏优化, 提供可重新测量的梯度估计值, 假设在连续潜伏空间之前存在高斯混合的潜伏分布参数。 从结构上看, 我们引入了一个编码网络和新颖的未经监督的有条件对比损失, 以确保单个混合物组成部分生成的数据代表一个单一属性。 我们确认, 拟议的方法, 名为 Stein Litetent Opptimization for GANs (SLOGAN), 成功地学习了平衡或不平衡的属性, 并取得了即使在缺少属性信息( 例如, 不平衡比率) 的情况下, 也实现了最先进的、 不受监督的有条件的生成性能。 此外, 我们证明, 要学习的属性可以通过少量的探测数据加以操纵。

0
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
196+阅读 · 2019年9月30日
ICML2019:Google和Facebook在推进哪些方向?
专知
5+阅读 · 2019年6月13日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年4月30日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员