Image inpainting task requires filling the corrupted image with contents coherent with the context. This research field has achieved promising progress by using neural image inpainting methods. Nevertheless, there is still a critical challenge in guessing the missed content with only the context pixels. The goal of this paper is to fill the semantic information in corrupted images according to the provided descriptive text. Unique from existing text-guided image generation works, the inpainting models are required to compare the semantic content of the given text and the remaining part of the image, then find out the semantic content that should be filled for missing part. To fulfill such a task, we propose a novel inpainting model named Text-Guided Dual Attention Inpainting Network (TDANet). Firstly, a dual multimodal attention mechanism is designed to extract the explicit semantic information about the corrupted regions, which is done by comparing the descriptive text and complementary image areas through reciprocal attention. Secondly, an image-text matching loss is applied to maximize the semantic similarity of the generated image and the text. Experiments are conducted on two open datasets. Results show that the proposed TDANet model reaches new state-of-the-art on both quantitative and qualitative measures. Result analysis suggests that the generated images are consistent with the guidance text, enabling the generation of various results by providing different descriptions. Codes are available at https://github.com/idealwhite/TDANet


翻译:映射中的图像任务要求用与上下文一致的内容填充腐败图像。 这个研究字段已经通过使用神经图像油漆方法取得了有希望的进展。 尽管如此, 在用上下文像素来猜测缺失的内容时, 仍然有一个严峻的挑战。 本文的目标是根据所提供的描述文本来填充腐败图像中的语义信息。 与现有的文本导图象生成工作的独特之处是, 需要绘制模型来比较给定文本的语义内容和图像的剩余部分, 然后找到应该填充缺失部分的语义内容。 为了完成这项任务, 我们提议了一个名为 Text-Guided 双重注意印图网络( TDANet) 的新版的涂图模型。 首先, 设计一个双元式关注机制, 以提取关于腐败区域的明确的语义信息。 其方法是用对等的注意来比较描述文本和互补图像区域。 其次, 图像文本匹配损失用于最大限度地增加生成图像和TD- 部分的语义相似性内容。 实验在两个开放的 数据网络上进行。 实验, 将生成的定性分析结果显示为一致的文本。 。 。 将显示 数据生成结果 以不同的 。 向上 。 。 以不同的 以不同的 将显示 将显示 。 以不同的 。 。 。 以不同的 以 以 以 将 将 以 以 以 将 将 以 以 将 将 将 将 以 将 将 将 将 将 以 将 将 将 以 将 将 将 将 以 将 将 将 将 以 以 将 将 以 将 将 将 将 将 将 将 以 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 进行 。

2
下载
关闭预览

相关内容

图像修复(英语:Inpainting)指重建的图像和视频中丢失或损坏的部分的过程。例如在博物馆中,这项工作常由经验丰富的博物馆管理员或者艺术品修复师来进行。数码世界中,图像修复又称图像插值或视频插值,指利用复杂的算法来替换已丢失、损坏的图像数据,主要替换一些小区域和瑕疵。
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
16+阅读 · 2021年1月27日
Arxiv
3+阅读 · 2020年7月16日
SwapText: Image Based Texts Transfer in Scenes
Arxiv
4+阅读 · 2020年3月18日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Foreground-aware Image Inpainting
Arxiv
4+阅读 · 2019年1月17日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
21+阅读 · 2018年5月23日
Arxiv
8+阅读 · 2018年5月1日
VIP会员
相关论文
Arxiv
16+阅读 · 2021年1月27日
Arxiv
3+阅读 · 2020年7月16日
SwapText: Image Based Texts Transfer in Scenes
Arxiv
4+阅读 · 2020年3月18日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Foreground-aware Image Inpainting
Arxiv
4+阅读 · 2019年1月17日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
21+阅读 · 2018年5月23日
Arxiv
8+阅读 · 2018年5月1日
Top
微信扫码咨询专知VIP会员