Subsampling unconditional generative adversarial networks (GANs) to improve the overall image quality has been studied recently. However, these methods often require high training costs (e.g., storage space, parameter tuning) and may be inefficient or even inapplicable for subsampling conditional GANs, such as class-conditional GANs and continuous conditional GANs (CcGANs), when the condition has many distinct values. In this paper, we propose an efficient method called conditional density ratio estimation in feature space with conditional Softplus loss (cDRE-F-cSP). With cDRE-F-cSP, we estimate an image's conditional density ratio based on a novel conditional Softplus (cSP) loss in the feature space learned by a specially designed ResNet-34 or sparse autoencoder. We then derive the error bound of a conditional density ratio model trained with the proposed cSP loss. Finally, we propose a rejection sampling scheme, termed cDRE-F-cSP+RS, which can subsample both class-conditional GANs and CcGANs efficiently. An extra filtering scheme is also developed for CcGANs to increase the label consistency. Experiments on CIFAR-10 and Tiny-ImageNet datasets show that cDRE-F-cSP+RS can substantially improve the Intra-FID and FID scores of BigGAN. Experiments on RC-49 and UTKFace datasets demonstrate that cDRE-F-cSP+RS also improves Intra-FID, Diversity, and Label Score of CcGANs. Moreover, to show the high efficiency of cDRE-F-cSP+RS, we compare it with the state-of-the-art unconditional subsampling method (i.e., DRE-F-SP+RS). With comparable or even better performance, cDRE-F-cSP+RS only requires about \textbf{10}\% and \textbf{1.7}\% of the training costs spent respectively on CIFAR-10 and UTKFace by DRE-F-SP+RS.


翻译:为提高总体图像质量,最近研究了这些方法,但往往需要高培训成本(例如存储空间、参数调试),而且可能效率不高,甚至不适用于对有条件 GAN 进行亚抽样测试的附加性GAN,例如类有条件GANs和连续有条件GANs(CGANs),当该条件有许多不同的值时。在本文中,我们提出了一种高效方法,称为有条件的 Softplus 损失(CDRE-FSP)。随着CDRE-FSP-参数调试,我们估计了基于新型的有条件软增(cSP)的图像密度比率,例如,通过专门设计的 ResNet-34 或稀薄的自动调试器(CCGAN-FRS) 和 CRCRS-ROD(C-C-Fral-FS-Fral-FRS) 的反差比值。我们最后,我们提出了一种叫做CRE-FRS-C-F-completrial 和C-RCRAS的C-C-C-C-C-C-S-Seral-Seral Supal Suplupluplation 需要更好的C-C-C-C-C-C-C-S-S-S-S-Seral-Seral-Seral-SDRDRDRDS, 和C-S-S-S-S-SBSBSBS-S-S-S-S-S-S-S-S-SU 和G-SDRDRDF-P-S-S-S-P-P-S-S-P-P-P-S-S-S-S-S-S-S-S-S-S-S-S-P-P-P-P-S-P-P-P-P-P-P-P-P-S-S-P-P-SDRDRDF-P-SDRDRBS-P-P-P-和P-P-P-P-P-P-P-S-P-P-P-P-P-P-P-P-P-P-P-P-P-P-P-P-P-

0
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
生成对抗网络GANs学习路线
专知
36+阅读 · 2019年6月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Slimmable Generative Adversarial Networks
Arxiv
3+阅读 · 2020年12月10日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
Top
微信扫码咨询专知VIP会员