论文题目

少镜头视频合成,Few-shot Video-to-Video Synthesis

论文简介

视频到视频合成(vid2vid)旨在将输入的语义视频(如人体姿势视频或分割遮罩视频)转换为输出的真实感视频。虽然最先进的OFVID2VID有了很大的进步,但现有的方法有两个主要的局限性。首先,他们渴望数据。训练需要大量的目标人体或场景图像。其次,学习模型的泛化能力有限。一个pose-to-humanvid2视频模型只能合成训练集中的单个人的姿势。它并不适用于不在训练集中的其他人。为了解决这些局限性,我们提出了一个新的shotvid2vidframework,它通过利用目标测试时间的少量示例图像来学习合成先前未看到的对象或场景的视频。我们的模型通过使用注意机制的novelnetwork权重生成模块来实现这种少量的镜头泛化能力。我们使用多个大规模视频数据集(包括人体舞蹈视频、说话头部视频和街道场景视频)进行了大量的实验验证,并与强基线进行了比较。实验结果验证了所提出的框架在解决现有VID2VID方法的两个局限性方面的有效性。代码可在我们的网站上找到

论文作者

Ting-Chun Wang, Ming-Yu Liu, Andrew Tao, Guilin Liu, Jan Kautz, Bryan Catanzaro 来自 NVIDIA(英伟达)公司

成为VIP会员查看完整内容
23

相关内容

Ming-Yu Liu是英伟达著名的研究科学家。在2016年加入NVIDIA之前,他是三菱电机研究实验室(MERL)的首席研究科学家。2012年,他获得了马里兰大学帕克学院电子与计算机工程系的博士学位。2014年,他的机器人拣料系统获得了《R&D》杂志颁发的R&D 100奖。他的语义图像合成论文和场景理解论文分别在2019年CVPR和2015年RSS会议上入围最佳论文决赛。在2019年的SIGGRAPH上,他的图像合成作品获得了实时直播秀的最佳表演奖和观众选择奖。他的研究重点是生成图像建模。他的目标是使机器具有类人的想象力。
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
深度学习视频中多目标跟踪:论文综述
专知会员服务
92+阅读 · 2019年10月13日
NVIDIA视频合成有多「骚」,看看蒙娜丽莎你就知道了
机器学习算法与Python学习
17+阅读 · 2019年10月28日
CVPR 2019视频描述(video caption)相关论文总结
极市平台
8+阅读 · 2019年10月16日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
镜头间的风格转换行人重识别
统计学习与视觉计算组
13+阅读 · 2018年8月16日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
7+阅读 · 2018年12月5日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
VIP会员
相关资讯
NVIDIA视频合成有多「骚」,看看蒙娜丽莎你就知道了
机器学习算法与Python学习
17+阅读 · 2019年10月28日
CVPR 2019视频描述(video caption)相关论文总结
极市平台
8+阅读 · 2019年10月16日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
镜头间的风格转换行人重识别
统计学习与视觉计算组
13+阅读 · 2018年8月16日
微信扫码咨询专知VIP会员