Exemplar-based image colorization aims to colorize a target grayscale image based on a color reference image, and the key is to establish accurate pixel-level semantic correspondence between these two images. Previous methods search for correspondence across the entire reference image, and this type of global matching is easy to get mismatch. We summarize the difficulties in two aspects: (1) When the reference image only contains a part of objects related to target image, improper correspondence will be established in unrelated regions. (2) It is prone to get mismatch in regions where the shape or texture of the object is easily confused. To overcome these issues, we propose SPColor, a semantic prior guided exemplar-based image colorization framework. Different from previous methods, SPColor first coarsely classifies pixels of the reference and target images to several pseudo-classes under the guidance of semantic prior, then the correspondences are only established locally between the pixels in the same class via the newly designed semantic prior guided correspondence network. In this way, improper correspondence between different semantic classes is explicitly excluded, and the mismatch is obviously alleviated. Besides, to better reserve the color from reference, a similarity masked perceptual loss is designed. Noting that the carefully designed SPColor utilizes the semantic prior provided by an unsupervised segmentation model, which is free for additional manual semantic annotations. Experiments demonstrate that our model outperforms recent state-of-the-art methods both quantitatively and qualitatively on public dataset.


翻译:样例图像上色旨在根据彩色参考图像为目标灰度图像上色,其关键在于建立准确的像素级语义对应关系。先前的方法在整个参考图像中搜索对应关系,这种全局匹配很容易出现不匹配情况。我们将困难总结为两个方面:(1)当参考图像仅包含与目标图像相关的部分对象时,在不相关区域将建立不恰当的对应关系;(2)在形状或纹理容易混淆的区域,很容易出现不匹配情况。为克服这些问题,我们提出了SPColor,一种基于语义先验引导的样例图像上色框架。与以往的方法不同,SPColor先在语义先验的指导下将参考和目标图像的像素粗略分类为几个伪类别,然后仅在相同类别中的像素之间建立局部对应关系,通过新设计的语义先验引导的对应网络。这样可以明确排除不同语义类别之间的不合适对应关系,并明显减轻不匹配情况。此外,为更好地从参考保留颜色,设计了相似度掩蔽感知损失。需注意,精心设计的SPColor利用了无监督分割模型提供的语义先验,并且无需额外手动语义注释。实验证明,我们的模型在公共数据集上在量化和质量方面均优于最近的最先进方法。

0
下载
关闭预览

相关内容

【CVPR2023】基于文本驱动软掩码的多模态表示学习
专知会员服务
20+阅读 · 2023年4月10日
【CVPR2022】弱监督目标定位建模为领域适应
专知会员服务
15+阅读 · 2022年3月4日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
62+阅读 · 2021年3月12日
浅谈扩散模型的有分类器引导和无分类器引导
PaperWeekly
3+阅读 · 2022年12月1日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Deep Image Prior——图像恢复入门
中国人工智能学会
15+阅读 · 2019年2月16日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
【泡泡一分钟】端到端的弱监督语义对齐
泡泡机器人SLAM
53+阅读 · 2018年4月5日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月31日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
VIP会员
相关VIP内容
【CVPR2023】基于文本驱动软掩码的多模态表示学习
专知会员服务
20+阅读 · 2023年4月10日
【CVPR2022】弱监督目标定位建模为领域适应
专知会员服务
15+阅读 · 2022年3月4日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
62+阅读 · 2021年3月12日
相关资讯
浅谈扩散模型的有分类器引导和无分类器引导
PaperWeekly
3+阅读 · 2022年12月1日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Deep Image Prior——图像恢复入门
中国人工智能学会
15+阅读 · 2019年2月16日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
【泡泡一分钟】端到端的弱监督语义对齐
泡泡机器人SLAM
53+阅读 · 2018年4月5日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员