极市导读
本文提出了一种使用双向transformer解码器新的图像合成模式—MaskGIT。在推理时,该模型首先同时生成图像的所有标记,然后在前一代的基础上迭代地细化图像。实验表明,MaskGIT在ImageNet数据集上的性能明显优于最先进的transformer模型,并将自回归解码速度提高了64倍。 >>加入极市CV技术交流群,走在计算机视觉的最前沿
图像生成长期以来一直被GAN所统治,虽然GAN的生成结果非常逼真,但在多样性方面却不如基于最大似然的方法(VAE、自回归模型等)。在去年,我们也看到了DALL-E、VQGAN等生成模型,模仿NLP的成功,利用Transformer来做图像生成,但这类方法有个很大的缺点,就是生成速度太慢了。
Transformer-based的图像生成基本完全参考NLP处理序列数据的做法,需要两个步骤:
虽然这类方法的生成结果还可以,但是从直觉上却不那么顺溜。仔细想人是怎么画画的,大多数人肯定是先画个草稿,然后再逐步细化、填色,由整体到局部,而不是从上到下从左到右一个个像素去填充。MaskGIT的核心思想,就是参考人的作画逻辑,先生成一部分token,再逐渐去完善。
MaskGIT: Masked Generative Image Transformer
https://arxiv.org/abs/2202.04200
MaskGIT的模型结构如下:
对于Tokenization步骤,直接参考VQGAN的思路,学习一个encoder-decoder。主要的改进点在第二步上,在生成阶段,重复以下步骤:
在训练阶段,不像BERT只mask掉15%,MaskGIT会随机选取各种值,来模拟生成阶段的情况。生成阶段的核心,就在于如何计算这一轮要mask多少token,这个schedule函数 有两个特性:
在对Linear、Concave、Convex三类函数实验后,发现Cosine是表现最好的:
从最终的效果可以看到,MaskGIT在图像质量上(FID、IS分数)接近当前最好的BigGAN,在速度上远胜VAGAN,在多样性(CAS分数)上超越了BigGAN:
同时作者发现,MaskGIT在编辑图像上有很大的潜力,尤其是class-conditioned image editing任务,自回归模型基本做不了,GAN来做也很难,对MaskGIT却十分容易,推动了一波鬼畜P图的发展(下面的例子让我深度怀疑作者是猫控):
MaskGIT作者在文中说到,双向Transformer的启发源自于机器翻译的一些工作,不过这却是图像领域的第一篇工作。MaskGIT的出发点相比单向自回归,在图像生成上更加make sense,相信之后也看到一些相关改进。其中我想到一点,也是从直觉上出发的,我们人在画画时,免不了对草图的涂改,而MaskGIT是没有涂改机会的,有没有更好的soft mask方式,或者迭代策略,可以对已经生成完的token进行迭代,这样说不定就能超过GAN的生成质量了。
公众号后台回复“数据集”获取30+深度学习数据集下载~
# CV技术社群邀请函 #
备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)
即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群
每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~