Latent Diffusion Models (LDMs) enable high-quality image synthesis while avoiding excessive compute demands by training a diffusion model in a compressed lower-dimensional latent space. Here, we apply the LDM paradigm to high-resolution video generation, a particularly resource-intensive task. We first pre-train an LDM on images only; then, we turn the image generator into a video generator by introducing a temporal dimension to the latent space diffusion model and fine-tuning on encoded image sequences, i.e., videos. Similarly, we temporally align diffusion model upsamplers, turning them into temporally consistent video super resolution models. We focus on two relevant real-world applications: Simulation of in-the-wild driving data and creative content creation with text-to-video modeling. In particular, we validate our Video LDM on real driving videos of resolution 512 x 1024, achieving state-of-the-art performance. Furthermore, our approach can easily leverage off-the-shelf pre-trained image LDMs, as we only need to train a temporal alignment model in that case. Doing so, we turn the publicly available, state-of-the-art text-to-image LDM Stable Diffusion into an efficient and expressive text-to-video model with resolution up to 1280 x 2048. We show that the temporal layers trained in this way generalize to different fine-tuned text-to-image LDMs. Utilizing this property, we show the first results for personalized text-to-video generation, opening exciting directions for future content creation. Project page: https://research.nvidia.com/labs/toronto-ai/VideoLDM/


翻译:潜在扩散模型(LDM)通过在压缩的低维潜空间中训练扩散模型,从而在避免过高的计算需求的同时实现高质量图像合成。本文将LDM范例应用于高分辨率视频生成,这是一个特别资源密集的任务。我们首先对图像进行预训练,然后通过引入时间维度到潜在空间扩散模型,并在编码图像序列(即视频)上微调来将图像生成器转换为视频生成器。同样地,我们进行时间对齐扩散模型上采样器,将其转变为时间一致的视频超分辨率模型。我们着重研究两个相关的实际应用:在野外驾驶数据的模拟和使用文本到视频建模进行创意内容创作。特别是,我们验证了我们的Video LDM在分辨率为512 x 1024的真实驾驶视频上的最先进表现。此外,我们的方法可以轻松地利用现成的预训练图像LDM,因为这种情况下我们只需要训练一个时间对齐模型。这样一来,我们将公开提供的最先进的文本到图像LDM Stable Diffusion转换为一个有效且具有表现力的分辨率高达1280 x 2048的文本到视频模型。我们展示了通过这种方式训练的时间层可以泛化到不同的微调文本到图像LDM上的结果。利用此特性,我们展示了个性化文本到视频生成的首例结果,开辟了未来内容创作的激动人心的方向。项目页面:https://research.nvidia.com/labs/toronto-ai/VideoLDM/

1
下载
关闭预览

相关内容

【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
117+阅读 · 2022年4月21日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
浙大开源快速扩散语音合成模型FastDiff和ProDiff
PaperWeekly
0+阅读 · 2022年10月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
117+阅读 · 2022年4月21日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
浙大开源快速扩散语音合成模型FastDiff和ProDiff
PaperWeekly
0+阅读 · 2022年10月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员