NVIDIA视频合成有多「骚」,看看蒙娜丽莎你就知道了

2019 年 10 月 28 日 机器学习算法与Python学习

本文转自『机器之心编译』(almosthuman2014


  • 论文:https://nvlabs.github.io/few-shot-vid2vid/main.pdf

  • 项目代码:https://nvlabs.github.io/few-shot-vid2vid/


先来看一下合成效果:

用不同示例图像合成的人体跳舞视频。

用英伟达的方法合成的雕塑跳舞视频。

用不同示例图像合成的头部特写视频。

蒙娜丽莎头部合成视频。

街景合成视频。


「视频到视频」合成(简称「vid2vid」)旨在将人体姿态或分割掩模等输入的语义视频,转换为逼真的输出视频。虽然当前 vid2vid 合成技术已经取得了显著进展,但依然存在以下两种局限:其一,现有方法极其需要数据。训练过程中需要大量目标人物或场景的图像;其二,学习到的模型泛化能力不足。姿态到人体(pose-to-human)的 vid2vid 模型只能合成训练集中单个人的姿态,不能泛化到训练集中没有的其他人。


为了克服这两种局限,英伟达的研究者提出了一种 few-shot vid2vid 框架,该框架在测试时通过利用目标主体的少量示例图像,学习对以前未见主体或场景的视频进行合成。


借助于一个利用注意力机制的新型网络权重生成模块,few-shot vid2vid 模型实现了在少样本情况下的泛化能力。他们进行了大量的实验验证,并利用人体跳舞、头部特写和街景等大型视频数据集与强基准做了对比。


实验结果表明,英伟达提出的 few-shot vid2vid 框架能够有效地解决现有方法存在的局限性。


如下图 1(右)所示,few-shot vid2vid 框架通过两个输入来生成一个视频:


图 1:英伟达 few-shot vid2vid(右)与现有 vid2vid(左)框架的对比。现有的 vid2vid 方法不考虑泛化到未见过的域。经过训练的模型只能用于合成与训练集中视频相似的视频。英伟达的模型则可以利用测试时提供的少量示例图像来合成新人体的视频。


除了和现有 vid2vid 方法一样输入语义视频外,few-shot vid2vid 还有第二个输入,其中包括测试时可用的目标域的一些示例图像。值得注意的是,现有的 vid2vid 方法不存在第二个输入。研究者提出的模型使用这几个示例图像,并通过新颖的网络权重生成机制实现对视频合成机制的动态配置。具体来说,他们训练一个模块来使用示例图像生成网络权重。此外,他们还精心设计了学习目标函数,以方便学习网络权重生成模块。

少样本的视频到视频合成


视频到视频合成旨在学习一个映射函数,该函数可以将输入语义图像的序列,即 ,转化为输出图像的序列,即 在这一过程中,以语义图像序列为条件的输出图像分布和标注图像分布是近似的。 换言之,视频到视频合成旨在实现 ,其中 D 是分布散度测量,如 Jensen-Shannon 散度(简称「J-S 散度」)或 Wasserstein 散度。 为了对条件分布进行建模,现有研究利用了简化的马尔可夫假设(Markov assumption),并通过以下方程得出序列生成模型:


换言之,它基于观察到的 Τ+1 输入语义图像 ,还有Τ-1 生成的图像 生成输出图像。


序列生成器 F 可以通过几种方式进行建模,并且通常选择使用由以下方程得出的 matting 函数:


下图 2(a)是 vid2vid 架构和抠图函数的可视图,其中输出图像 x_t tilde 是通过结合最后生成图像的光流变形版本,即 和合成的中间图 像 h_t tilde 生成的。


图 2: (a)现有 vid2vid 框架的架构; (b)英伟达提出的 few-shot vid2vid 框架的架构。


软遮挡映射 m˜_t 说明了在每个像素位置上如何组合两个图像。简单来说,如果某个像素能在此前生成的帧中被找到,会更有利于从变形图像中复制像素值。实际上是通过神经网络参数化的函数 M、W 和 H 生成的:


其中,θM、θW 和θH 是可学习的参数,训练完成后它们会保持固定状态。


Few-shot vid2vid


前面方程 1 得到的序列生成器希望将新颖的输入转化为语义视频,但现在有一个问题,这样的模型是做不到 Few-shot 的,它并没有学习到如何合成未知领域的视频。为了令生成器 F 适应未见过的数据,研究者使得 F 依赖于额外的输入。


具体而言,研究者给 F 增加了两个额外的输入参数:即目标领域的 K 个样本图像 {e_1, e_2, ..., e_K},以及对应它们对应的语义图像 {s_e1 , s_e2 , ..., s_eK }。这样整个生成器就可以表示为如下方程式,它嵌入了少样本学习的属性:


基于注意力的聚合(K > 1)


除此之外,研究者还想让 E 从任意数量的示例图像中提取出模式。由于不同的示例图像可能具有不同的外观模式,而且它们与不同输入图像之间的关联程度也存在差异,研究者设计了一种注意力机制来聚合提取出的外观模式 q_1……q_K。


为此,它们构建了一个新的包含若干完全卷积层的注意力网络 E_A。E_A 应用于示例图像的每个分割图像 s_e_k。这样可以得到一个关键向量 a_k ∈ R^(C×N),其中,C 是通道的数量,N = H × W 是特征图的空间维度。


他们还将 E_A 应用于当前输入语义图像 s_t,以提取其关键向量 a_t ∈ R^(C×N)。接下来,他们通过利用矩阵乘积计算了注意力权重α_k = (a_k) ^T ⊗ a_t。然后将注意力权重用于计算外观表征的加权平均值 然后将其输入到多层感知机 E_P 以生成网络权重(见下文中的图 2(b))。 这种聚合机制在不同示例图像包含目标的不同部分时很有帮助。 例如,当示例图像分别包含目标人物的正面和背面时,该注意力图可以在合成期间帮助捕捉相应的身体部位。


实验结果


下图 3 展示了在合成人物时使用不同示例的结果。可以看出,英伟达提出的方法可以成功地将动作迁移至所有示例图像中。

图 3: 人体跳舞视频合成结果可视图。


下图 4 展示了英伟达提出的方法与其他方法的对比。可以看出,其他方法要么生成有瑕疵的视频,要么无法将动作完全迁移至新视频。

图 4: 与其他人体动作合成结果的对比。


下图 5 展示了用不同示例图像合成街景的效果。可以看出,即使使用相同的输入分割图,使用英伟达的方法也能得到不同的结果。

图 5: 街景视频合成结果图示。


下图 6 展示了在合成人脸时使用不同示例图像的结果。英伟达的方法可以在捕捉到输入视频动作的同时完整保留示例人物特征。

图 6: 人脸视频合成结果。


推荐阅读
“我靠这4个项目,拿到了年薪30万+的大厂Offer”
Github  | 基于RetinaNet的半自动图像标记工具
7 个 Python 特殊技巧,有效提升数分效率!
年薪70W架构师:全套英语学习资源泄露,手慢则无!(禁止外传)
登录查看更多
17

相关内容

【CVPR2020】时序分组注意力视频超分
专知会员服务
30+阅读 · 2020年7月1日
【ACL2020】利用模拟退火实现无监督复述
专知会员服务
13+阅读 · 2020年5月26日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
【ICIP2019教程-NVIDIA】图像到图像转换,附7份PPT下载
专知会员服务
53+阅读 · 2019年11月20日
已删除
将门创投
7+阅读 · 2019年10月10日
你跳宅舞的样子很专业:不,这都是AI合成的结果
一种行人重识别监督之下的纹理生成网络
人工智能前沿讲习班
4+阅读 · 2019年6月30日
【学界】英伟达又火了一篇图像转换论文,我们竟然用来吸猫
GAN生成式对抗网络
3+阅读 · 2019年5月10日
AI换脸朱茵变杨幂,技术背后细思极恐
大数据技术
7+阅读 · 2019年3月1日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Arxiv
14+阅读 · 2019年11月26日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
9+阅读 · 2018年10月24日
VIP会员
相关资讯
已删除
将门创投
7+阅读 · 2019年10月10日
你跳宅舞的样子很专业:不,这都是AI合成的结果
一种行人重识别监督之下的纹理生成网络
人工智能前沿讲习班
4+阅读 · 2019年6月30日
【学界】英伟达又火了一篇图像转换论文,我们竟然用来吸猫
GAN生成式对抗网络
3+阅读 · 2019年5月10日
AI换脸朱茵变杨幂,技术背后细思极恐
大数据技术
7+阅读 · 2019年3月1日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
相关论文
Top
微信扫码咨询专知VIP会员