Image inpainting is an underdetermined inverse problem, which naturally allows diverse contents to fill up the missing or corrupted regions realistically. Prevalent approaches using convolutional neural networks (CNNs) can synthesize visually pleasant contents, but CNNs suffer from limited perception fields for capturing global features. With image-level attention, transformers enable to model long-range dependencies and generate diverse contents with autoregressive modeling of pixel-sequence distributions. However, the unidirectional attention in autoregressive transformers is suboptimal as corrupted image regions may have arbitrary shapes with contexts from any direction. We propose BAT-Fill, an innovative image inpainting framework that introduces a novel bidirectional autoregressive transformer (BAT) for image inpainting. BAT utilizes the transformers to learn autoregressive distributions, which naturally allows the diverse generation of missing contents. In addition, it incorporates the masked language model like BERT, which enables bidirectionally modeling of contextual information of missing regions for better image completion. Extensive experiments over multiple datasets show that BAT-Fill achieves superior diversity and fidelity in image inpainting qualitatively and quantitatively.


翻译:图像映射是一个未下定的反向问题, 它自然允许不同内容以现实的方式填充缺失或腐败的区域。 使用进化神经网络( CNNs) 的先导方法可以将视觉上令人愉快的内容合成, 但CNN在捕捉全球特征的感知领域上却受限制。 在图像层面的注意下, 变压器能够模拟长距离依赖性, 产生多种内容, 并自动递增像素序列分布的模型。 但是, 自动递减变异变异器中的单向性关注是次优化的, 因为腐败的图像区域可能有任意的形状。 我们提议使用 BAT- Fill, 这是一种创新的画图框架, 引入新的双向自动递增变异变变变器( BAT) 用于映射。 BAT 利用变异器学习自动递增的分布, 这自然允许各种缺失的内容的生成。 此外, 它包含隐蔽语言模型, 因为腐败的图像区域可能有任意的形状。 我们提议采用 BAT- Fill- Filling alibly ex exalblovealalalalal 实验, 并显示在图像完成中的高级图像中, 高级图像中, 高级图像中, 高级实验显示BIalbrealpalbalbalbsetalbsetalbs

0
下载
关闭预览

相关内容

图像修复(英语:Inpainting)指重建的图像和视频中丢失或损坏的部分的过程。例如在博物馆中,这项工作常由经验丰富的博物馆管理员或者艺术品修复师来进行。数码世界中,图像修复又称图像插值或视频插值,指利用复杂的算法来替换已丢失、损坏的图像数据,主要替换一些小区域和瑕疵。
专知会员服务
45+阅读 · 2021年6月1日
【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
58+阅读 · 2021年3月3日
最新《Transformers模型》教程,64页ppt
专知会员服务
311+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
【资源】文本风格迁移相关资源汇总
专知
13+阅读 · 2020年7月11日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员