While deep learning-based 3D face generation has made a progress recently, the problem of dynamic 3D (4D) facial expression synthesis is less investigated. In this paper, we propose a novel solution to the following question: given one input 3D neutral face, can we generate dynamic 3D (4D) facial expressions from it? To tackle this problem, we first propose a mesh encoder-decoder architecture (Expr-ED) that exploits a set of 3D landmarks to generate an expressive 3D face from its neutral counterpart. Then, we extend it to 4D by modeling the temporal dynamics of facial expressions using a manifold-valued GAN capable of generating a sequence of 3D landmarks from an expression label (Motion3DGAN). The generated landmarks are fed into the mesh encoder-decoder, ultimately producing a sequence of 3D expressive faces. By decoupling the two steps, we separately address the non-linearity induced by the mesh deformation and motion dynamics. The experimental results on the CoMA dataset show that our mesh encoder-decoder guided by landmarks brings a significant improvement with respect to other landmark-based 3D fitting approaches, and that we can generate high quality dynamic facial expressions. This framework further enables the 3D expression intensity to be continuously adapted from low to high intensity. Finally, we show our framework can be applied to other tasks, such as 2D-3D facial expression transfer.


翻译:虽然基于深层次学习的 3D 面部合成最近有所进展, 动态 3D (4D) 面部表达式合成问题却没有得到多少调查。 在本文中, 我们提出一个新颖的解决方案, 解决以下问题: 如果有一个输入 3D 中性面孔, 我们能从中产生动态 3D (4D) 面部表达式表达式表达式表达式吗? 为了解决这个问题, 我们首先提出一个 网目编码解码解码器结构( Extrar- ED), 利用一组3D 标志来产生一个表达式的3D 面部表达式表达式表情。 然后, 我们将其扩展为4D 。 我们用一个多值GAN来模拟面部表情的时空动态动态动态表达式表达式动态动态动态动态动态动态动态动态动态动态动态动态动态动态动态动态动态变化模型( Motiond D 3D lagistrual ladeal lax lax) 能够从一个显著的高度改进到另一个高密度框架。

0
下载
关闭预览

相关内容

3D是英文“Three Dimensions”的简称,中文是指三维、三个维度、三个坐标,即有长、有宽、有高,换句话说,就是立体的,是相对于只有长和宽的平面(2D)而言。
专知会员服务
15+阅读 · 2021年5月13日
专知会员服务
25+阅读 · 2021年1月21日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
60年后的你长什么样?人脸老化三大技术探秘
阿里技术
5+阅读 · 2017年9月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
3D Face Modeling from Diverse Raw Scan Data
Arxiv
5+阅读 · 2019年2月13日
A Compact Embedding for Facial Expression Similarity
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年5月13日
专知会员服务
25+阅读 · 2021年1月21日
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
60年后的你长什么样?人脸老化三大技术探秘
阿里技术
5+阅读 · 2017年9月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员