Recent facial image synthesis methods have been mainly based on conditional generative models. Sketch-based conditions can effectively describe the geometry of faces, including the contours of facial components, hair structures, as well as salient edges (e.g., wrinkles) on face surfaces but lack effective control of appearance, which is influenced by color, material, lighting condition, etc. To have more control of generated results, one possible approach is to apply existing disentangling works to disentangle face images into geometry and appearance representations. However, existing disentangling methods are not optimized for human face editing, and cannot achieve fine control of facial details such as wrinkles. To address this issue, we propose DeepFaceEditing, a structured disentanglement framework specifically designed for face images to support face generation and editing with disentangled control of geometry and appearance. We adopt a local-to-global approach to incorporate the face domain knowledge: local component images are decomposed into geometry and appearance representations, which are fused consistently using a global fusion module to improve generation quality. We exploit sketches to assist in extracting a better geometry representation, which also supports intuitive geometry editing via sketching. The resulting method can either extract the geometry and appearance representations from face images, or directly extract the geometry representation from face sketches. Such representations allow users to easily edit and synthesize face images, with decoupled control of their geometry and appearance. Both qualitative and quantitative evaluations show the superior detail and appearance control abilities of our method compared to state-of-the-art methods.


翻译:最近的面部图像合成方法主要基于有条件的基因化模型。 以绘图为基础的条件可以有效地描述面部的几何,包括面部组成部分的轮廓、发型结构,以及面部表面的显著边缘(例如皱纹),但缺乏对外观的有效控制,而外观则受颜色、材料、照明条件等的影响。 要对所产生的结果进行更多的控制,一种可能的方法是应用现有的脱钩工作,将面部图像分解为几何和外观显示。然而,现有的脱钩方法不优化人的面部编辑,无法对面部细节(例如皱纹)进行精细化控制。为了解决这一问题,我们建议深度面部脸部结构分解,专门设计一个结构分解框架,以支持面部、材料、材料、光质状况等。 我们采用一种地方到全球的方法,将面部知识融入到地貌的外观和外观表现中:本地部分图像被分解成易变的外观和外观表现,这些状态一直使用全球调模块来改进生成的地貌详细度,从而改进地貌和面面面面部图像的面面面面面部图像的面部分析。 我们利用绘图分析方法,通过对地貌分析和图像的图像的映测分析,直接地貌分析方法,可以进行分析,用来分析,从而测量分析,从而显示分析,用更精确地貌分析方法显示分析,用更精确的图图制,从而显示方法显示方法显示方法显示,通过地貌分析,从而显示方法显示方法显示方法显示法制。

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
109+阅读 · 2021年4月17日
最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
专知会员服务
100+阅读 · 2020年7月16日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
40+阅读 · 2019年10月9日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
A Generalized CUR decomposition for matrix pairs
Arxiv
0+阅读 · 2021年7月7日
Arxiv
5+阅读 · 2021年1月7日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
相关VIP内容
【如何做研究】How to research ,22页ppt
专知会员服务
109+阅读 · 2021年4月17日
最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
专知会员服务
100+阅读 · 2020年7月16日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
40+阅读 · 2019年10月9日
相关资讯
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员