Encoder-decoder based architecture has been widely used in the generator of generative adversarial networks for facial manipulation. However, we observe that the current architecture fails to recover the input image color, rich facial details such as skin color or texture and introduces artifacts as well. In this paper, we present a novel method named SARGAN that addresses the above-mentioned limitations from three perspectives. First, we employed spatial attention-based residual block instead of vanilla residual blocks to properly capture the expression-related features to be changed while keeping the other features unchanged. Second, we exploited a symmetric encoder-decoder network to attend facial features at multiple scales. Third, we proposed to train the complete network with a residual connection which relieves the generator of pressure to generate the input face image thereby producing the desired expression by directly feeding the input image towards the end of the generator. Both qualitative and quantitative experimental results show that our proposed model performs significantly better than state-of-the-art methods. In addition, existing models require much larger datasets for training but their performance degrades on out-of-distribution images. In contrast, SARGAN can be trained on smaller facial expressions datasets, which generalizes well on out-of-distribution images including human photographs, portraits, avatars and statues.


翻译:编码器-解码器架构已经广泛用于生成对抗网络的面部操作器中。然而,我们观察到当前的架构无法恢复输入图像的颜色、皮肤质地等丰富的面部细节,并引入了伪影。在本文中,我们提出了一种名为SARGAN的新方法,以三个方面解决上述限制。首先,我们使用基于空间注意力的残差块代替了普通的残差块,以便正确捕捉与表情相关的特征,同时保持其他特征不变。其次,我们利用了对称的编码器-解码器网络,在多个尺度上关注面部特征。第三,我们建议使用残差连接训练完成的完整网络,以减轻生成器产生输入面部图像的压力,从而通过直接将输入图像馈送到生成器的末尾来生成所需的表情。定性和定量的实验结果表明,我们提出的模型表现比现有方法显著更好。此外,现有模型需要处理更大的数据集进行训练,但其性能会随着数据分布的变化而下降。相比之下,SARGAN可以在较小的面部表情数据集上训练,在包括人类照片、肖像、化身和雕像在内的分布之外的图像上显示出良好的泛化性能。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年9月16日
专知会员服务
15+阅读 · 2021年5月13日
最新《Transformers模型》教程,64页ppt
专知会员服务
278+阅读 · 2020年11月26日
最新《生成式对抗网络GAN时空数据应用》综述论文,28pdf
 【SIGGRAPH 2020】人像阴影处理,Portrait Shadow Manipulation
专知会员服务
28+阅读 · 2020年5月19日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
13+阅读 · 2022年10月27日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
27+阅读 · 2020年12月24日
VIP会员
相关资讯
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员