Despite recent advances in semantic manipulation using StyleGAN, semantic editing of real faces remains challenging. The gap between the $W$ space and the $W$+ space demands an undesirable trade-off between reconstruction quality and editing quality. To solve this problem, we propose to expand the latent space by replacing fully-connected layers in the StyleGAN's mapping network with attention-based transformers. This simple and effective technique integrates the aforementioned two spaces and transforms them into one new latent space called $W$++. Our modified StyleGAN maintains the state-of-the-art generation quality of the original StyleGAN with moderately better diversity. But more importantly, the proposed $W$++ space achieves superior performance in both reconstruction quality and editing quality. Despite these significant advantages, our $W$++ space supports existing inversion algorithms and editing methods with only negligible modifications thanks to its structural similarity with the $W/W$+ space. Extensive experiments on the FFHQ dataset prove that our proposed $W$++ space is evidently more preferable than the previous $W/W$+ space for real face editing. The code is publicly available for research purposes at https://github.com/AnonSubm2021/TransStyleGAN.


翻译:尽管最近在使用StyleGAN进行语义操作方面取得了进展,但真实面貌的语义编辑仍然具有挑战性。W$空间与W$+空间之间的差距要求重建质量和编辑质量之间作出不可取的权衡。为了解决这个问题,我们建议扩大潜在空间,用关注型变压器取代StyleGAN绘图网络中完全连接的层层。这一简单而有效的技术将上述两个空间整合起来,并将其转化为一个新的潜在空间,称为W$++。我们修改后的StyleGAN保持原StyleGAN最先进的新一代质量,其多样性稍稍好。但更重要的是,拟议的W+美元空间在重建质量和编辑质量两方面都取得了优异性。尽管有这些重大优势,但我们的W$++空间仍然支持现有的转换算法和编辑方法,但由于与$W/W+美元+空间的结构相似,这种简单有效的技术将其转化成。在FFHQ数据集上进行的广泛实验证明,我们提议的$1/W++空间显然比先前的美元/W$+空间更可取。但更重要的是,拟议的空间在重建质量和编辑质量上都可公开用于研究。

0
下载
关闭预览

相关内容

专知会员服务
19+阅读 · 2020年9月14日
【微众银行】联邦学习白皮书_v2.0,48页pdf,
专知会员服务
165+阅读 · 2020年4月26日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
101+阅读 · 2019年10月9日
人脸合成效果媲美StyleGAN,而它是个自编码器
机器之心
3+阅读 · 2020年4月26日
vqvae2 paper及同时重建场景和人脸的效果
CreateAMind
13+阅读 · 2019年7月5日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年10月16日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
3+阅读 · 2020年7月16日
VIP会员
相关资讯
人脸合成效果媲美StyleGAN,而它是个自编码器
机器之心
3+阅读 · 2020年4月26日
vqvae2 paper及同时重建场景和人脸的效果
CreateAMind
13+阅读 · 2019年7月5日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年10月16日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员