Unpaired image-to-image translation using Generative Adversarial Networks (GAN) is successful in converting images among multiple domains. Moreover, recent studies have shown a way to diversify the outputs of the generator. However, since there are no restrictions on how the generator diversifies the results, it is likely to translate some unexpected features. In this paper, we propose Style-Restricted GAN (SRGAN) to demonstrate the importance of controlling the encoded features used in style diversifying process. More specifically, instead of KL divergence loss, we adopt three new losses to restrict the distribution of the encoded features: batch KL divergence loss, correlation loss, and histogram imitation loss. Further, the encoder is pre-trained with classification tasks before being used in translation process. The study reports quantitative as well as qualitative results with Precision, Recall, Density, and Coverage. The proposed three losses lead to the enhancement of the level of diversity compared to the conventional KL loss. In particular, SRGAN is found to be successful in translating with higher diversity and without changing the class-unrelated features in the CelebA face dataset. To conclude, the importance of the encoded features being well-regulated was proven with two experiments. Our implementation is available at https://github.com/shinshoji01/Style-Restricted_GAN.


翻译:使用 General Adversarial Networks (GAN) 将图像转换为图像, 使用 General Adversarial 网络( GAN) 将图像转换成图像, 取得了成功。 此外, 最近的研究展示了使生成器产出多样化的一种方法。 但是, 由于对生成器如何使结果多样化没有限制, 它可能会翻译出一些出人意料的特征。 在本文中, 我们提议Style- Restricted GAN( SRGAN) 以显示在风格多样化过程中所使用的编码特性的重要性。 更具体地说, 我们采用三种新的损失来限制编码特性的分布: 批量 KL 差异损失、 相关损失 和 直方图像模拟损失 。 此外, 在翻译过程中使用之前, 加密器对分类任务进行了预先训练。 研究报告报告了精度、 回调、 密度和覆盖范围的定量结果。 提议的三种损失导致多样性水平的提高, 而不是常规的 KLLL 差异损失。 特别是, SRGANAN 被发现成功地翻译了更高的多样性, 并且没有改变我们现有的 CelebA/ regrodrodrodududustration 的Card 。

0
下载
关闭预览

相关内容

【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
生成对抗网络GAN在各领域应用研究进展(中文版),37页pdf
专知会员服务
150+阅读 · 2020年12月30日
【KDD2020】 半监督迁移协同过滤推荐
专知会员服务
19+阅读 · 2020年10月21日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
8+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年3月23日
VIP会员
相关VIP内容
相关资讯
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Top
微信扫码咨询专知VIP会员