自动生成模型动画:北大神经融合形状新方法登上SIGGRAPH 2021

2021 年 5 月 7 日 机器之心
机器之心经授权转载
北京大学前沿计算研究中心
作者:李沛卓

本文是对发表于计算机图形学顶级会议 SIGGRAPH 2021 的论文 Learning Skeletal Articulations with Neural Blend Shapes 的解读。

该论文由北京大学陈宝权教授研究团队、北京电影学院未来影像高精尖创新中心、Google Research、特拉维夫大学以及苏黎世联邦理工学院合作,针对骨骼驱动的模型动画的高质量自动化生成进行改进,提出了神经融合形状技术。实验证明,该方法显著减少了已有方法中需要的人工干预,大大提升了生成动画的质量。

  • 项目主页:https://peizhuoli.github.io/neural-blend-shapes/

  • GitHub代码仓库:https://github.com/PeizhuoLi/neural-blend-shapes

  • 论文链接:https://peizhuoli.github.io/neural-blend-shapes/papers/neural-blend-shapes-camera-ready.pdf



引言

骨骼驱动的三维人物动画在游戏、影视等应用场景中随处可见。 然而,使用骨骼驱动三维人物网格模型(mesh)进行变形并得到动画,通常需要经历繁琐的骨骼搭建(rigging)以及蒙皮权重绑定(skinning)。 这些处理技术复杂而艰深,动画师通常需要数年的时间来尝试掌握。 此外,一些常见的特定动作,例如弯曲肘部、蹲下,由于常用的蒙皮技术(线性融合蒙皮,Linear Blend Skinning)的局限性,关节区域的变形并不理想。

左:现有技术在关节区域的问题;右:本文技术生成的高质量且细节丰富的动画

为了简化骨骼搭建和蒙皮权重绑定的过程、高效利用动作捕捉数据以及生成高质量的动画,我们开发了一套能生成具有指定结构的骨骼以及精准绑定权重的神经网络。加以我们提出的神经融合形状(neural blend shapes)技术,我们实现了实时高质量三维人物模型动画的端到端自动生成。

方法概览

方法简介

从处于 T 姿态的人物模型以及在给定的骨骼结构上的关节旋转开始,我们的包裹变形分支(envelope deformation branch)学习并预测出相应的骨骼以及蒙皮权重。 与此同时,补偿变形分支(residual deformation branch)预测出对应的融合形状(blend shapes)并使用输入的关节旋转预测对应的融合系数,然后基于此插值得到补偿变形。 综合以上中间结果,可微分包裹变形模块将生成最终的变形结果。 这一设计使得我们的神经网络能够通过仅观察变形后的人物模型进行间接学习,而不需要对训练数据集的变形方法有任何限制,极大增广了该方法的适用范围。

方法框架

我们的神经网络使用了网格卷积[1]和骨骼卷积[2]搭建各个模块。基于这些最前沿技术的基本算子,我们的网络可以在具有任意网格连通性的人物模型上生成高质量的结果。下图展示了我们的网络的具体架构:

包裹变形分支

补偿变形分支

结果展示

我们的方法能准确的预测出与人物模型高度匹配的骨骼以及绑定权重:

骨骼以及绑定权重的可视化

特别的,我们的方法能生成符合预先指定结构的骨骼,这一点在使用动作捕捉数据时尤为关键。而 RigNet[3]只提供了十分有限的用户操纵参数,生成的骨骼结构难以控制:

从左至右分别为:RigNet(12), RigNet(25), RigNet(50), Ours

由于我们的神经网络直接在高质量变形模型上训练,仅使用包裹变形分支就已经超过了基准的线性融合蒙皮技术。再加上我们的神经融合形状技术,关节区域的变形结果便是更上一层楼:

动画结果对比

参考:
[1] Hanocka et al., 2019, MeshCNN: A Network with an Edge
[2] Aberman et al., 2020, Skeleton-Aware Networks for Deep Motion Retargeting
[3] Xu et al., 2020, RigNet: Neural Rigging for Articulated Characters

亚马逊云科技线上黑客松2021


这是一场志同道合的磨练,这是一场高手云集的组团竞技。秀脑洞、玩创意,3月26日至5月31日,实战的舞台为你开启,「亚马逊云科技线上黑客松2021」等你来战!

为了鼓励开发者的参与和创新,本次大赛为参赛者准备了丰厚的奖品,在一、二、三等奖之外,还特设prActIcal奖、creAtIve奖、锦鲤极客奖、阳光普照奖,成功提交作品的团队均可获赠奖品。

识别二维码,立即报名参赛。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
1

相关内容

ACM SIGGRAPH年度会议是关于计算机图形学和交互技术的理论和实践的全球规模最大,最具影响力的年度会议,通过教育,卓越和互动来激发进步。它们共有四个基本目标:通过社区忠诚度,贡献者质量,外部认可和竞争对手的反应来衡量的首要地位。学科专家和整个行业认可的领先优势。通过贡献者,委员会和社区满意度和参与度来衡量教育,互动和卓越的有效性。可持续的连续性,通过志愿者的承诺,社区利益和财务自给自足来衡量。 官网地址:http://dblp.uni-trier.de/db/conf/siggraph/index.html
专知会员服务
14+阅读 · 2021年6月1日
专知会员服务
28+阅读 · 2020年10月24日
【ECCV2020】基于场景图分解的自然语言描述生成
专知会员服务
23+阅读 · 2020年9月3日
【CVPR2020】时序分组注意力视频超分
专知会员服务
30+阅读 · 2020年7月1日
姿势服装随心换-CVPR2019
专知会员服务
34+阅读 · 2020年1月26日
你跳宅舞的样子很专业:不,这都是AI合成的结果
旷视研究院新出8000点人脸关键点,堪比电影级表情捕捉
人工智能前沿讲习班
19+阅读 · 2019年5月4日
已删除
将门创投
9+阅读 · 2018年12月19日
Arxiv
0+阅读 · 2021年6月22日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
3+阅读 · 2020年7月16日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Deformable ConvNets v2: More Deformable, Better Results
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员