【速览】ACM MM 2021 | 聚焦于人物:从现代历史电影中学习为老照片着色

2021 年 10 月 29 日 中国图象图形学学会CSIG
   


















会“成果速览”系列文章旨在将图像图形领域会议期刊重要成果进行传播,通过短篇文章让读者用母语快速了解相关学术动态,欢迎关注和投稿~










◆ ◆ ◆ ◆

聚焦于人物:从现代历史电影中学习为老照片着色

金鑫    , 李忠兰    刘可     ,  邹冬青     , 李晓东   ,朱星帆   
周子寅   孙启龙   刘清雨   
   北京电子科技学院,   商汤科技、上海交通大学
ACM MM 2021
撰稿人: 刘译键、刘可

通讯作者:邹冬青

推荐理事:林宙辰
原文标题: Focusing on Persons: Colorizing Old Images Learning from  Modern Historical Movies
原文链接: https://arxiv.org/abs/2108.06515
ACM DIGITAL LIBRARY:https://dl.acm.org/doi/10.1145/3474085.3481544
原文代码链接: https://github.com/BestiVictory/HistoryNet
数据集链接: https://github.com/BestiVictory/MHMD









◆ ◆ ◆ ◆


摘要
目前,像视频网站、档案馆等许多行业具有将留存的黑白老照片实现自动着色的需求。现有的一些着色方法在自然和现代场景方面表现出了很好的效果。但是由于缺少历史人物老照片的相关数据,这些方法在历史人物图像方面的着色效果并不好。为了解决这个问题,本文提出了一个名为HistoryNet的神经网络架构。HistoryNet包含分类、细粒度语义解析和着色三个子网络。分类子网络将图像按年代、民族、服装类型进行分类;语义解析子网络为图像中的人物轮廓、服装和背景提供语义分割,实现服装和人物更准确地着色,并防止颜色溢出。在训练过程中,我们将分类和语义解析融入到颜色生成网络中,以此改善着色效果。分类与解析子网络的设计提高了图像的着色精度,使图像各部分的边界更加清晰。此外,我们还提出了一个新的现代历史电影数据集(Modern Historical Movies Dataset:MHMD),它包含1353166张图像,并根据年代、民族和服装类型划分为42类。MHMD来自147部现代历史电影或电视剧。这些工作都使我们在历史人物图像着色方面获得了很好的效果。
背景
 

目前,现有的着色方法在老照片人物服饰着色问题上无法取得令人满意的效果,主要有以下原因:

1、传统的着色方法[1,2,3,4]提出了具有输入文本语义和语言描述的方法。尽管这些方法包含了参考图片的语义分割信息,但它们忽略了背景和人物的边界,并且也不考虑人像中各个部分的解析;

2、随着深度学习的进步,许多研究使用CNN或GAN来提取灰度图片的信息以用于着色。这些方法往往实现了自然颜色匹配。但忽略了颜色分布的客观事实。

3、目前大多数的着色图片数据集缺少真实历史灰度图片的内容和信息,特别是关于老照片人物的服装颜色信息。

为了解决这些缺点,基于细粒度语义解析和先验知识,本文创新地提出了HistoryNet框架和MHMD数据集。HistoryNet包含三部分:分类网络、细粒度语义解析网络和着色网络。MHMD数据集包含1353166张图片,并根据年代、民族和服装类型可划分为42类。我们使用HistoryNet在MHMD上经过训练,最终可以达到一个理想的着色效果。

HistoryNet的网络结构示意图如图2-1所示。 

图 2-1 HistoryNet网络示意图

网络结构与损失函数

HistoryNet网络结构主要包含低水平的特征提取网络、分类网络、生成器网络、细粒度语义解析网络、鉴别器网络和分类器网络。

生成器网络旨在实现真实的着色效果,它的损失函数定义为:

细粒度语义解析网络利用获得的人物图片进行细粒度语义解析,它可以将人物的各部分如脸、帽子、手、衣服等分离,使着色边界清晰准确,它的损失函数定义为:

 

分类网络旨在获得照片的高水平特征和着色的种类标签。分类网络一部分包含代表例如年代、民族、服饰类型等标签的向量,以此提高生成器网络着色的准确性;另一部分得到分类器网络对应的向量来计算损失函数,实现图片的正确着色,该损失函数定义如下:

鉴别器网络旨在保持训练过程稳定并获得更好的着色照片。使用Kan-torovich-Rubinste对偶[5,6]并添加梯度惩罚项来约束鉴别器相对于其输入的范数。

分类器网络旨在避免人物老照片中由于年代、民族、服饰类型多样性造成的着色失真。分类器利用InfoGAN[13]充分利用图像信息可以实现更好的效果。类器的损失函数定义如下:

上述所有结构构成HistoryNet,总体的损失函数定义如下:

在训练过程中,超参数取值如下:

数据集

为了获得更好的着色效果,本文创新地提出了一个新的数据集——现代历史电影数据集(Modern Historical Movies Dataset: MHMD)。该数据集来源于147部现代历史电影和电视剧,并经过预处理后,得到最终的数据集。MHMD根据年代、民族和服饰类型可以划分为42类,总计1,353,166张图片。标签的详细分类有助于网络结构获得准确的信息。图片标签的结构如下:

 图 4-1 数据集标签结构分布图

实验结果分析

本文在现代历史电影数据集上对提出的算法进行了测试与验证。为了证明提出方法的效果优良,我们进行了定量对比实验、消融实验和定性对比实验。

通过三个指标:LPIPS[7],PSNR和SSIM,将HistoryNet与其他着色方法Deoldify[8],Iizuka et al.[9],Larsson et al.[10],ChromaGAN[11],Su et al.[12]进行了定量对比,实验结果如表5-1所示。

表 5-1 定量对比实验结果

我们随机选取一些图片用HistoryNet与其他着色方法进行对比,如图5-1所示,相比于其他方法,HistoryNet的着色效果与原图更为接近。

图 5-1 对比实验效果展示

我们以ChromaGAN为基准进行消融实验,实验结果如表5-2所示。

表 5-2 消融实验

我们分别使用Human Parsing[14]和Deeplab-v3[7]进行语义分割。Deeplab-v3[7]只对人物和背景进行了区分,但不能对人物的脸和手等各个部分进行具体分割。因此,我们采用实例级人像解析[14]进行语义分割,重点识别手臂、头发等各个语义部分。Human Parsing[14]和Deeplab-v3[7]的分割效果如图5-2所示。

图 5-2 Human Parsing与Deeplab-v3对比

我们所设计的MHMD适用于历史图像的上色,特别是军装和历史图像。此外,我们的方法也可以用于去除历史图片的背景噪声,并使泛黄的背景颜色恢复为正常颜色。如图5-3所示。

图 5-3 老照片颜色修正

我们还为一些遗留的黑白图像着色。如图5-4所示,我们的着色方法对于黑白照片具有很好的着色效果。

图 5-4 黑白历史图像着色

总结

在本文中,我们提出了一个新的HistoryNet网络结构,它包含语义解析、分类和着色子网络。语义解析子网络可以提高着色边界的准确性。分类子网络可以帮助选择正确的颜色。此外,我们还提出了一个名为MHMD的数据集,该数据集来源于真实的灰色历史图像。据我们所知,所提出的MHMD数据集是目前历史图像着色领域最大的数据集。通过相关的定性和定量实验比较,我们的方法在LPIPS、PSNR、SSIM等方面都优于目前最先进的着色网络。希望我们的工作可以激励更多的研究人员在历史图像/视频着色技术方面做出贡献。

参考文献

[1] Hyojin Bahng, Seungjoo Yoo, Wonwoong Cho, David Keetae Park, Ziming Wu,Xiaojuan Ma, and Jaegul Choo. 2018. Coloring with words: Guiding imagecolorization through text-based palette generation. In Proceedings of the europeanconference on computer vision (eccv).431–447.

[2] Jianbo Chen, Yelong Shen, Jianfeng Gao, Jingjing Liu, and Xiaodong Liu. 2018.Language-based image editing with recurrent attentive models.In  Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 8721–8729.

[3] Chenxi Liu, Zhe Lin, Xiaohui Shen, Jimei Yang, Xin Lu, and Alan Yuille. 2017. Rcurrent multimodal interaction for referring image segmentation. In Proceedings of the IEEE International Conference on Computer Vision. 1271–1280.

[4] Varun Manjunatha, Mohit Iyyer, Jordan Boyd-Graber, and Larry Davis. 2018. Learning to color from language. arXiv preprint arXiv:1804.06026 (2018).

[5] Leonid Kantorovitch. 1958. On the translocation of masses. Management Science 5,1(1958),1–4.

[6] Cédric Villani.2008.Optimal transport: old and new.Vol.338.Springer Science &Business Media.
[7] Richard Zhang, Phillip Isola, Alexei A Efros, Eli Shechtman, and Oliver Wang. 2018. The unreasonable effectiveness of deep features as a perceptual metric.In Proceedings of the IEEE conference on computer vision and pattern recognition. 586–595.
[8] Jason Antic. 2019. DeOldify. https://github.com/jantic/DeOldify. 
[9] Satoshi Iizuka, Edgar Simo-Serra, and Hiroshi Ishikawa. 2016. Let there be color!Joint end-to-end learning of global and local image priors for automatic image colorization with simultaneous classification. ACM Transactions on Graphic -s.(ToG) 35, 4 (2016), 1–11.
[10] Gustav Larsson, Michael Maire, and Gregory Shakhnarovich. 2016. Learning representations for automatic colorization. In European Conference on Computer Vision. Springer, 577–593.
[11] Patricia Vitoria, Lara Raad, and Coloma Ballester. 2020. ChromaGAN: Adversarial Picture Colorization with Semantic Class Distribution.In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV).
[12] Jheng-Wei Su, Hung-Kuo Chu, and Jia-Bin Huang.2020.Instance-aware Image Colorization.In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.7968–7977.
[13] X. Chen, Y. Duan, R. Houthooft, J. Schulman, I. Sutskever, and P. Abbeel. 2016.InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets. In Neural Information Processing Systems (NIPS).




ICIG2021 报名参会正在进行中,早鸟截止时间10月31日!欲报从速!
中国图象图形学学会关于开展第七届中国科协青年人才托举工程项目推荐工作的通知
中国图象图形学学会关于组织开展科技成果鉴定的通知

CSIG图像图形中国行承办方征集中

登录查看更多
1

相关内容

ACM 国际多媒体会议(ACM International Conference on Multimedia)是计算机科学领域中多媒体领域的首要国际会议。多媒体研究的重点是整合不同数字形式(包括图像,文本,视频,音乐,传感器数据,口头音频)提供的多种视角。自1993年以来,ACM多媒体一直将学术界和工业界的研究人员和从业人员汇聚在一起,提出创新的研究成果并讨论最新进展。会议的一个特别部分是艺术计划,该计划探索计算机科学与艺术的界限。 官网地址:http://dblp.uni-trier.de/db/conf/mm/
专知会员服务
35+阅读 · 2021年9月15日
专知会员服务
14+阅读 · 2021年6月1日
[CVPR 2020]BEDSR-Net:单张文档图像的阴影去除深度网络
专知会员服务
25+阅读 · 2020年9月29日
【ACM MM2020】对偶注意力GAN语义图像合成
专知会员服务
34+阅读 · 2020年9月2日
【ECCV2020】EfficientFCN:语义分割中的整体引导解码器
专知会员服务
15+阅读 · 2020年8月23日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【速览】IJCV 2022 | 自适应干扰解耦学习的人脸表情识别方法(ADDL)
中国图象图形学学会CSIG
6+阅读 · 2022年2月15日
开源开放 | 中国近代历史人物知识图谱
开放知识图谱
2+阅读 · 2021年12月3日
【速览】ICCV 2021 | 从2D到3D的虚拟试穿模型
中国图象图形学学会CSIG
0+阅读 · 2021年10月22日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月14日
VIP会员
相关VIP内容
专知会员服务
35+阅读 · 2021年9月15日
专知会员服务
14+阅读 · 2021年6月1日
[CVPR 2020]BEDSR-Net:单张文档图像的阴影去除深度网络
专知会员服务
25+阅读 · 2020年9月29日
【ACM MM2020】对偶注意力GAN语义图像合成
专知会员服务
34+阅读 · 2020年9月2日
【ECCV2020】EfficientFCN:语义分割中的整体引导解码器
专知会员服务
15+阅读 · 2020年8月23日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员