视频生成的前沿论文,看我们推荐的7篇就够了

2018 年 12 月 30 日 人工智能前沿讲习班


关注文章公众号

回复"视频生成"获取本主题精选论文



图像和视频等视觉数据的生成是机器学习和计算机视觉领域的重要研究问题。近几年随着生成对抗网络的提出和发展,人们已经可以通过深度生成模型合成真实、多样化的清晰图像。作为一种结构更加复杂,应用也更广的数据类型,视频的生成即将成为人工智能领域的下一个热点问题。

 

由SFFAI16分享嘉宾杨凌波同学和黄怀波同学精选出来的7篇有关视频生成的论文,将使你全面了解视频生成的历史和最新进展。你可以先仔细阅读,并带着问题来现场交流哦。



1


🌟🌟🌟🌟🌟

Everybody Dance Now

Demo(https://www.youtube.com/watch?v=PCBTZh41Ris)

Implementation(https://github.com/Lotayou/everybody_dance_now_pytorch)


推荐理由:Berkeley AI Lab在Siggraph2018上发表的最新工作,代表了目前单个人物视频生成的最高水平。该文章在Nvidia pix2pixHD图像生成工作的基础上,引入了骨架尺寸归一化,时域连续性约束,人脸残差增强后处理三个模块,并通过大量人物真实动作视频加以训练,使机器自主学习人物骨架姿态到视频帧的对应关系,合成清晰自然的人物舞蹈视频(见demo)。

该文章提出的方法基本代表了目前视频生成领域的主流。

推荐理由来自:杨凌波


2

🌟🌟🌟🌟🌟

Deformable GANs for Pose-based Human Image Generation

Implementation(https://github.com/AliaksandrSiarohin/pose-gan)


推荐理由:虽说是合成单帧图像的工作,但这篇文章的生成网络结构相当新颖,是文章一大亮点,对视频合成问题中特征估计的思路也有借鉴。该文章考虑给定单张人物图像和新的骨架,生成新姿态下同一人物图像的问题。要如何把给定图像中人物各部分的纹理“粘贴”到新的骨架上呢?这就要用到作者提出的“变形跳层连接(deformable skip connection)”了。

相比传统的跳层连接,作者提出的跳层连接可以在不同的位置间共享局部纹理信息,从而可以合成局部非常逼真的纹理细节(比如右图中女子上衣的花纹)。

推荐理由来自:杨凌波


3

🌟🌟🌟🌟

Pose-guided-person-image-generation

Implementation

(https://github.com/charliememory/Pose-Guided-Person-Image-Generation)


推荐理由:本领域的开山之作,首次提出了“骨架引导的人物图像生成”这一问题。作为当时还很困难的一个视觉任务,作者采用了两段式的生成策略,先预估一个大体轮廓,再合成精细的残差图去改善结果。虽然最后生成的图像分辨率不算很高,结果也比不过当今最好的Deformable-GAN,但作为一篇开创性的工作,这篇论文采用的许多设计思路都在之后的改进文章中有所体现,值得抱着考古的心态读一读一读。

推荐理由来自:杨凌波


4


🌟🌟🌟🌟

Video-to-video synthesis

Project Page (https://tcwang0509.github.io/vid2vid/)


推荐理由:Nvidia出品,必属精品。这篇video-to-video synthesis基本上涵盖了做视频生成领域的所有应用场景:从分割标签图到高清街景视频,从边缘图到电话会议视频,从骨架姿态到跳舞视频,甚至视频预测,语义属性编辑,而且效果都非常惊艳……sigh,有显卡真的是可以为所欲为啊!在增强时域一致性方面,英伟达采用了前后帧借助光流融合的策略,将前一帧合成的结果通过光流信息融合至下一帧,结合单帧生成器共同合成当前帧,显著提升了视频的时域连贯性。这篇文章和我们的讲座主题联系并不大,但是生成的人物跳舞视频效果确实很棒,大家有兴趣可以走马观花读一下吧。

推荐理由来自:杨凌波


5

🌟🌟🌟🌟


MoCoGAN: Decomposing Motion and Content for Video Generation (CVPR18)

Code: https://github.com/sergeytulyakov/mocogan


推荐理由:英伟达公司在CVPR2018提出的一种经典的无条件视频生成模型,可以从噪声通过生成器合成一段视频。相比之前的视频生成模型(比如VGAN和TGAN), 该文章将视频的输入隐码分成两部分,控制视频内容的Content Code 和控制动作的Motion Code,其中Motion Code 通过一个RNN网络来建模时序信息。对抗部分采用了两个判别器,一个用于判断每一帧图像的真实性,一个用于判断整段视频的真实性。

该方法比较直观,是基于GAN的无条件视频生成的一种经典范式。

推荐理由来自:黄怀波


6

🌟🌟🌟🌟

Stochastic Video Generation with a Learned Prior (ICML18)


推荐理由:这篇文章发表在ICML2018, 是使用VAE来进行视频预测的工作。和直接由噪声生成视频的无条件生成模型不同,视频预测是根据已有的若干帧图像预测未来帧的条件生成模型。使用VAE来进行视频预测可以增加预测的不确定性。本文提出了两种视频预测模型,一种对隐码使用固定的先验分布来进行拟合,另外一种使用了可以学习的先验分布。

视频预测任务也是一种常见的视频生成任务。

推荐理由来自:黄怀波


7

🌟🌟🌟🌟

Probabilistic Video Generation using Holistic Attribute Control (ECCV18)


推荐理由:这是发表在ECCV2018上,条件VAE(CVAE)模型在视频生成上的应用。和MoCoGAN类似,这篇文章也认为视频可以分解成两部分,一部分是时序无关的信息(相当于MoCoGAN的Content code),一部分是和时序相关的动态信息(相当于MoCoGAN的Motion code)。其中时序无关信息满足由单帧图像和属性共同编码的先验分布,时序相关信息利用LSTM进行编码。测试的时候通过改变条件信息可以控制合成视频的属性。

这篇文章提出了一种基于变分自编码器的条件视频生成模型。

推荐理由来自:黄怀波



主题

视频生成


图像和视频等视觉数据的生成是机器学习和计算机视觉领域的重要研究问题。近几年随着生成对抗网络的提出和发展,人们已经可以通过深度生成模型合成真实、多样化的清晰图像。作为一种结构更加复杂,应用也更广的数据类型,视频的生成即将成为人工智能领域的下一个热点问题。


时间

2019年1月6日(周日)

14:00 -- 17:00



地点

中国科学院自动化研究所


报名方式

点击下方原文链接 或 扫描二维码报名




活动名额

1、为确保小范围深入交流,本次活动名额有限(不收取任何费用);

2、活动采取审核制报名,我们将根据用户研究方向与当期主题的契合度进行筛选,通过审核的用户将收到确认邮件;

3、 如您无法按时到场参与活动,请于活动开始前 24 小时在AIDL微信公众号后台留言告知,留言格式为放弃报名 + 报名电话。无故缺席者,将不再享有后续活动的报名资格。


SFFAI招募

现代科学技术高度社会化,在科学理论与技术方法上更加趋向综合与统一,为了满足人工智能不同领域研究者相互交流、彼此启发的需求,我们发起了SFFAI这个公益活动。SFFAI每周举行一期线下活动,邀请一线科研人员分享、讨论人工智能各个领域的前沿思想和最新成果,使专注于各个细分领域的研究者开拓视野、触类旁通。

SFFAI目前主要关注机器学习、计算机视觉、自然语言处理等各个人工智能垂直领域及交叉领域的前沿进展,将对线下讨论的内容进行线上传播,使后来者少踩坑,也为讲者塑造个人影响力。

SFFAI还将构建人工智能领域的知识树(AI Knowledge Tree),通过汇总各位参与者贡献的领域知识,沉淀线下分享的前沿精华,使AI Knowledge Tree枝繁叶茂,为人工智能社区做出贡献。

这项意义非凡的社区工作正在稳步向前,衷心期待和感谢您的支持与奉献!

报名通道已开启,请点击下方
阅读原文
报名
↓↓
登录查看更多
34

相关内容

最新《生成式对抗网络》简介,25页ppt
专知会员服务
174+阅读 · 2020年6月28日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
36+阅读 · 2019年12月15日
【ICIP2019教程-NVIDIA】图像到图像转换,附7份PPT下载
专知会员服务
55+阅读 · 2019年11月20日
深度学习视频中多目标跟踪:论文综述
专知会员服务
94+阅读 · 2019年10月13日
本周精选共读论文《姿态估计&图像生成》五篇
人工智能前沿讲习班
7+阅读 · 2019年3月25日
数据挖掘的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
7+阅读 · 2019年3月11日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
语音识别的前沿论文,看我们推荐的这4篇
人工智能前沿讲习班
26+阅读 · 2019年1月14日
类脑计算的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
21+阅读 · 2019年1月7日
SFFAI 16 报名通知 | 视频生成
人工智能前沿讲习班
8+阅读 · 2018年12月30日
生成对抗网络在图像翻译上的应用【附PPT与视频资料】
人工智能前沿讲习班
7+阅读 · 2018年11月28日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
7+阅读 · 2018年1月24日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关资讯
本周精选共读论文《姿态估计&图像生成》五篇
人工智能前沿讲习班
7+阅读 · 2019年3月25日
数据挖掘的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
7+阅读 · 2019年3月11日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
语音识别的前沿论文,看我们推荐的这4篇
人工智能前沿讲习班
26+阅读 · 2019年1月14日
类脑计算的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
21+阅读 · 2019年1月7日
SFFAI 16 报名通知 | 视频生成
人工智能前沿讲习班
8+阅读 · 2018年12月30日
生成对抗网络在图像翻译上的应用【附PPT与视频资料】
人工智能前沿讲习班
7+阅读 · 2018年11月28日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
相关论文
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
7+阅读 · 2018年1月24日
Arxiv
5+阅读 · 2017年11月13日
Top
微信扫码咨询专知VIP会员