Generative adversarial models (GANs) continue to produce advances in terms of the visual quality of still images, as well as the learning of temporal correlations. However, few works manage to combine these two interesting capabilities for the synthesis of video content: Most methods require an extensive training dataset in order to learn temporal correlations, while being rather limited in the resolution and visual quality of their output frames. In this paper, we present a novel approach to the video synthesis problem that helps to greatly improve visual quality and drastically reduce the amount of training data and resources necessary for generating video content. Our formulation separates the spatial domain, in which individual frames are synthesized, from the temporal domain, in which motion is generated. For the spatial domain we make use of a pre-trained StyleGAN network, the latent space of which allows control over the appearance of the objects it was trained for. The expressive power of this model allows us to embed our training videos in the StyleGAN latent space. Our temporal architecture is then trained not on sequences of RGB frames, but on sequences of StyleGAN latent codes. The advantageous properties of the StyleGAN space simplify the discovery of temporal correlations. We demonstrate that it suffices to train our temporal architecture on only 10 minutes of footage of 1 subject for about 6 hours. After training, our model can not only generate new portrait videos for the training subject, but also for any random subject which can be embedded in the StyleGAN space.


翻译:视觉对抗模型(GANs)继续在静态图像的视觉质量和时间相关性的学习方面产生进步。然而,很少有工作能够将这两个有趣的视频内容合成能力结合起来:大多数方法需要广泛的培训数据集,以便学习时间相关性,而其输出框架的分辨率和视觉质量则相当有限。在本文中,我们对视频合成问题提出了一个新颖的方法,帮助大大提高视觉质量,并大幅减少制作视频内容所需的培训数据和资源的数量。我们的配方将空间域与时间域分离开来,在空间域中,个人框架是合成的,在时间域中,运动产生。在空间域中,我们使用预先培训过的SteleGAN网络,其潜在空间可以控制其输出框架的外观。这个模型的表达力使我们能够将我们的培训视频嵌入SteleGAN潜在空间。然后,我们的时间结构可以不局限于 RGB框架的序列,而是SyleGAN潜在代码的序列。 StyGAN空间空间空间模型的有利性能性,而不是在10小时的时空图像结构中简化我们的空间图像的发现。我们只能用10小时的训练为10小时。

1
下载
关闭预览

相关内容

专知会员服务
33+阅读 · 2021年9月16日
专知会员服务
42+阅读 · 2021年7月4日
专知会员服务
96+阅读 · 2021年2月6日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
70+阅读 · 2020年10月24日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
生成式对抗网络GAN异常检测
专知会员服务
117+阅读 · 2019年10月13日
已删除
AI科技评论
4+阅读 · 2018年8月12日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
A Temporal Variational Model for Story Generation
Arxiv
0+阅读 · 2021年9月14日
Arxiv
8+阅读 · 2019年2月15日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Arxiv
8+阅读 · 2018年5月21日
VIP会员
相关VIP内容
相关资讯
已删除
AI科技评论
4+阅读 · 2018年8月12日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员