Large-scale text-to-image diffusion models have achieved unprecedented success in image generation and editing. However, extending this success to video editing remains challenging. Recent video editing efforts have adapted pretrained text-to-image models by adding temporal attention mechanisms to handle video tasks. Unfortunately, these methods continue to suffer from temporal inconsistency issues and high computational overheads. In this study, we propose FluencyVE, which is a simple yet effective one-shot video editing approach. FluencyVE integrates the linear time-series module, Mamba, into a video editing model based on pretrained Stable Diffusion models, replacing the temporal attention layer. This enables global frame-level attention while reducing the computational costs. In addition, we employ low-rank approximation matrices to replace the query and key weight matrices in the causal attention, and use a weighted averaging technique during training to update the attention scores. This approach significantly preserves the generative power of the text-to-image model while effectively reducing the computational burden. Experiments and analyses demonstrate promising results in editing various attributes, subjects, and locations in real-world videos.


翻译:大规模文本到图像扩散模型在图像生成与编辑领域已取得前所未有的成功。然而,将这一成功扩展至视频编辑领域仍面临诸多挑战。近期的视频编辑研究尝试通过引入时序注意力机制来适配预训练的文本到图像模型,以处理视频任务。遗憾的是,这些方法仍受限于时序不一致性问题与高昂的计算开销。本研究提出FluencyVE,一种简洁而有效的单次视频编辑方法。FluencyVE将线性时序模块Mamba集成至基于预训练Stable Diffusion模型的视频编辑框架中,替代原有的时序注意力层。该设计在实现全局帧级注意力的同时显著降低了计算成本。此外,我们采用低秩近似矩阵替换因果注意力中的查询与键权重矩阵,并在训练过程中使用加权平均技术更新注意力分数。该方法在有效保持文本到图像模型生成能力的同时,显著减轻了计算负担。实验与分析表明,该方法在编辑真实视频中的多种属性、主体及场景方面均展现出优异效果。

0
下载
关闭预览

相关内容

【CVPR2024】VidLA: 大规模视频-语言对齐
专知会员服务
20+阅读 · 2024年3月31日
Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员