Recent facial image synthesis methods have been mainly based on conditional generative models. Sketch-based conditions can effectively describe the geometry of faces, including the contours of facial components, hair structures, as well as salient edges (e.g., wrinkles) on face surfaces but lack effective control of appearance, which is influenced by color, material, lighting condition, etc. To have more control of generated results, one possible approach is to apply existing disentangling works to disentangle face images into geometry and appearance representations. However, existing disentangling methods are not optimized for human face editing, and cannot achieve fine control of facial details such as wrinkles. To address this issue, we propose DeepFaceEditing, a structured disentanglement framework specifically designed for face images to support face generation and editing with disentangled control of geometry and appearance. We adopt a local-to-global approach to incorporate the face domain knowledge: local component images are decomposed into geometry and appearance representations, which are fused consistently using a global fusion module to improve generation quality. We exploit sketches to assist in extracting a better geometry representation, which also supports intuitive geometry editing via sketching. The resulting method can either extract the geometry and appearance representations from face images, or directly extract the geometry representation from face sketches. Such representations allow users to easily edit and synthesize face images, with decoupled control of their geometry and appearance. Both qualitative and quantitative evaluations show the superior detail and appearance control abilities of our method compared to state-of-the-art methods.


翻译:最近的面部图像合成方法主要基于有条件的基因化模型。 以绘图为基础的条件可以有效地描述面部的几何,包括面部组成部分的轮廓、发型结构,以及面部表面的显著边缘(例如皱纹),但缺乏对外观的有效控制,而外观则受颜色、材料、照明条件等的影响。 要对所产生的结果进行更多的控制,一种可能的方法是应用现有的脱钩工作,将面部图像分解为几何和外观显示。然而,现有的脱钩方法不优化人的面部编辑,无法对面部细节(例如皱纹)进行精细化控制。为了解决这一问题,我们建议深度面部脸部结构分解,专门设计一个结构分解框架,以支持面部、材料、材料、光质状况等。 我们采用一种地方到全球的方法,将面部知识融入到地貌的外观和外观表现中:本地部分图像被分解成易变的外观和外观表现,这些状态一直使用全球调模块来改进生成的地貌详细度,从而改进地貌和面面面面部图像的面面面面面部图像的面部分析。 我们利用绘图分析方法,通过对地貌分析和图像的图像的映测分析,直接地貌分析方法,可以进行分析,用来分析,从而测量分析,从而显示分析,用更精确地貌分析方法显示分析,用更精确的图图制,从而显示方法显示方法显示方法显示,通过地貌分析,从而显示方法显示方法显示方法显示法制。

0
下载
关闭预览

相关内容

【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
57+阅读 · 2019年11月10日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2018年6月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
5+阅读 · 2021年1月7日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
5+阅读 · 2018年12月18日
Arxiv
5+阅读 · 2018年5月1日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2018年6月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员