今年多模态图像合成与编辑方向大火,前有 DALL-E、GauGAN2,后有统一的多模态预训练模型「女娲」。来自新加坡南洋理工大学的研究者对这一领域内的进展和趋势做了系统的调查梳理。
现实世界中的信息存在于各种模态之中,多模态信息之间的有效交互和融合对于计算机视觉和深度学习研究中多模态数据的创建和感知起着关键作用。凭借在多模态信息交互建模方面的强大能力,多模态图像合成和编辑已成为近年来的热门研究课题。
与提供显式线索的传统视觉指导不同,多模态指导为图像合成和编辑提供了直观、灵活的手段。另一方面,该领域在特征与固有模态差距的对齐、高分辨率图像合成、公平评估指标等方面也面临着挑战。
基于此,来自新加坡南洋理工大学的研究者做了一项调查,全面地将近来多模态图像合成和编辑的进展背景化,根据数据模态和模型架构制定分类法,并撰写了一篇综述论文。
该论文首先介绍图像合成和编辑中不同类型的指导模态,并使用详细的框架广泛地描述多模态图像合成和编辑方法,包括生成对抗网络(GAN)、GAN 反转、Transformer、NeRF、扩散模型等。然后该研究对多模态图像合成和编辑中广泛采用的基准数据集和相应评估指标做了全面描述,并分析比较了多种合成方法及其优缺点。最后,该研究对当前研究存在的挑战和未来可能的研究方向给出了见解。这项调查研究将为多模态图像合成和编辑的未来发展奠定良好的基础。
图像合成和编辑旨在创建逼真图像或编辑具有自然纹理的真实图像,近年来大多基于生成对抗网络(GAN)[1]。为了实现更可控的生成,一个主流研究方向旨在根据一定的指导条件生成和编辑图像。通常,分割图和图像边缘等视觉线索已被广泛采用,以实现卓越的图像合成和编辑性能。除了这些视觉线索之外,文本、音频和场景图等跨模态指导提供了一种更直观、更灵活的视觉概念表达方式。然而,从不同模态的数据中有效检索和融合异构信息仍是图像生成和编辑的巨大挑战。
作为多模态图像合成领域的一项先驱工作,E. Mansimov 等人 (2015)[5] 的工作表明循环变分自动编码器可以生成以文本为条件的新型视觉场景。随着生成对抗网络 I. Goodfellow 等人 (2014)[1]、P. Isola 等人(2017)[2]、 T. Park 等人(2019)[3]、 M. Mirza 等人(2014)[6]、 M. Arjovsky 等人(2017)[7]、 C.-H. Lin 等人(2018)[8] 等多项研究的发展,多模态图像合成的工作得到了极大的推进。
S. Reed 等人 2016 年的论文《Generative adversarial text to image synthesis》[11]扩展了条件 GAN [6] ,以基于文本描述生成自然图像。 L. Chen 等人 2017 年的论文《Deep cross-modal audio-visual generation》[12] 用条件 GAN 实现音乐表演的跨模态视听生成。然而,这两项先驱研究仅能对图像分辨率相对较低(例如 64 × 64)的有限数据集(例如 CUB-200 Birds [13] 和 Sub-URMP [12])进行合成。在过去几年中,改进的多模态编码 [14][15]、新型架构[16][17] 和循环结构[18] 使得该领域取得了显著的进步。另一方面,早期的研究主要集中在多模态图像合成上,很少关注多模态图像编辑任务。
随着大规模 GAN 的发展,领域内又涌现出一系列新型生成网络,如 BigGAN [19] 和 StyleGAN [20]-[22],以从随机噪声输入中合成高质量且具有多样性的图像。
最近有研究表明,GAN 可以在中间特征 [23] 和潜在空间 [24] 中有效地编码丰富的语义信息。GAN 反转 [25] 的方法将给定图像反转回预训练 GAN 模型的潜在空间,产生可由生成器重建给定图像的反转代码,这种方法取代了通过改变潜在代码来合成图像。由于 GAN 反转能够控制在潜在空间中发现的属性方向,因此预训练 GAN 可应用于真实图像编辑,而无需临时监督或昂贵的优化。
许多研究 [26][27] 都试图沿着一个特定方向改变真实图像的反转码来编辑图像的相应属性。在多模态指导方面,StyleClip [28] 利用 CLIP [29] 模型的强大功能为 StyleGAN 图像处理开发了基于文本的接口,而无需繁琐的手动操作。Talk-to-Edit [30] 则提出一种交互式人脸编辑框架,通过操作者与机器之间的对话就能进行细粒度的操作和编辑。
随着允许跨模态输入的 Transformer 模型 [31] 的流行,语言模型 [32]、图像生成预训练 [33] 和音频生成 [34] 等多个领域都取得了显著的进步。Transformer 为多模态图像合成提供了一条可能的新途径。
具体而言,DALL-E [35] 表明,在众多图像 - 文本对上训练大规模自回归 transformer 可以通过文本 prompt 产生具有可控结果的高保真生成模型。Taming Transformer [36] 提出用带有鉴别器和感知损失 [37]-[39] 的 VQGAN 来学习离散图像表征,并证明了在高分辨率图像合成中将 CNN 的归纳偏置与 transformer 的表达能力相结合的有效性。
ImageBART [40] 通过学习反转多项式扩散过程来解决自回归 (AR) 图像合成问题,该方法通过引入语境信息来减轻 AR 模型的曝光误差(exposure bias)。前段时间的 NUWA [41] 提出了一种统一的多模态预训练模型,允许使用 3D transformer 编码器 - 解码器框架和 3DNA 机制生成或操作视觉数据(即图像和视频)。
随着生成模型和神经渲染的发展,还有一些研究探索了其他类型的模型,例如神经辐射场 (NeRF) [42] 和扩散模型 [43][44],以实现多模态图像合成和编辑。
论文的主要部分包括第 2 章 - 第 5 章的内容:
第 2 章介绍了图像合成和编辑中流行的指导模态的基础;
第 3 章全面概述了具有详细 pipeline 的多模态图像合成和编辑方法;
第 4 章介绍了流行的数据集、评估指标和一些典型方法的定量实验结果;
第 5 章讨论了多模态图像合成和编辑面临的主要挑战和未来方向。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com