【速览】ACM MM 2021 | 针对场景文本图像超分辨率任务的并行上下文注意力网络

2021 年 11 月 5 日 中国图象图形学学会CSIG
   


















会“成果速览”系列文章旨在将图像图形领域会议期刊重要成果进行传播,通过短篇文章让读者用母语快速了解相关学术动态,欢迎关注和投稿~










◆ ◆ ◆ ◆

针对场景文本图像超分辨率任务的并行上下文注意力网络

赵才荣   , 冯舒扬    布莱恩•龙•赵    丁志军    , 吴俊   ,沈复民   申恒涛   
   同济大学,  南加州大学 ,  复旦大学 ,  电子科技大学
ACM MM 2021(Oral)
撰稿人: 赵才荣,冯舒扬

通讯作者:赵才荣

推荐理事:林宙辰
原文标题: Scene Text Image Super-Resolution via Parallelly Contextual Attention Network
原文链接: https://doi.org/10.1145/3474085.3475469
原文代码链接: https://github.com/Vill-Lab/PCAN









◆ ◆ ◆ ◆


摘要
光学退化会模糊文字的形状和边缘,因此现有的场景文本识别方法很难在低分辨率场景文本图像上取得理想的识别结果。上述问题可以通过有效地提取序列上下文信息来重构超分辨率文本图像,这仍然是一项具有挑战性的任务。在本文中,我们提出了一个并行上下文注意力网络(Parallelly Contextual Attention Network,PCAN)。它能有效地学习序列相关的特征,并重点关注文本图像中隐藏的高频信息。我们在TextZoom数据集上进行了广泛的实验,实验结果表明我们的方法可以显著地提升主流文字识别方法(例如MORAN、ASTER、CRNN)的识别性能。此外,我们验证了文本超分辨率算法可以作为防御对抗噪声,并提高文字识别管道安全性的有效手段。
背景
 

现有的文本超分辨率方法存在如下问题。早在真实的(基于相机不同拍摄焦段构建的低分辨率-高分辨率图像对)文本超分辨率数据集发布之前,大多数方法针对合成的(低分辨率图像由高分辨率图像降采样获得)超分辨率数据设计模型,仅微调现有的通用超分辨率算法就很快的达到了此场景的性能上限。也因此,少有针对文本图像特点的超分辨率方法被提出。然而,近期的研究主要围绕真实场景下的文本超分辨率数据设计模型,这些方法没有充分考虑隐藏在文本图像中的上下文信息以及文本轮廓信息。一方面,文本图像水平方向上蕴含了字符之间不同程度的上下文依赖,尤其是字符之间的关系符合某种语言先验(诸如单词、词组等)。字符内部采用相同的字体、字号,其结构之间的上下文关系也可以作为一种提升文本图像超分辨率质量的有效信息。在网络设计的环节,首先要考虑的就是上述上下文信息的合理建模方式。另一方面,文本的字体、颜色等并非是文字识别的关键特征,因此我们希望分别从隐式和显式的角度来增强文本轮廓信息这一极具辨识力的关键特征。

因此,基于以上内容,我们提出了一种新颖的并行上下文注意力网络(PCAN)用于解决上述问题。首先,我们探讨了水平和垂直方向上的上下文信息建模方法对文本超分辨率任务的重要性,然后设计了一个并行上下文注意力模块,以自适应地选择正交方向上下文依赖中有助于文本图像超分辨率的关键信息。其次,为了分别从隐式和显式的角度建模文本图像中的高频信息,我们提出了层次正交纹理感知注意力模块和边缘引导损失函数。前者综合了垂直和水平正交方向上不同感受野的卷积输出结果,构建了自适应关注文本轮廓的注意力机制。后者设计了一个可微分的Sobel计算模块,将端到端的获取超分辨率图像以及高清图像上的轮廓图像,辅助监督超分辨率网络的训练。PCAN网络的示意图如图1所示:

 图 1 PCAN网络流程图

方法描述

我们的网络结构基于TSRN [1],在此基础上我们提出了如下几个核心组件,分别是并行上下文注意力模块(PCAB)、层次正交纹理感知注意力模块(HOTA)和边缘引导的损失函数(   )。

 2 PCAB网络结

并行上下文注意力模块(PCAB)旨在寻求文本超分辨率块上更有效地上下文信息建模方法。经验上,我们发现一种双分支结构,并行地构建垂直和水平方向上视觉特征的依赖关系,能够得到比串行方式建模更好的结果。此外,利用通道注意力自适应加权以上特征,作为两种依赖信息的门控,可以进一步提高我们算法的性能(见实验1)。如图2所示,我们将卷积层得到(B,C,H,W)维度特征通过矩阵转置得到(B*H,W,C)维度的特征,GRU模块能够作用于(B,T,C)输入特征的T方向上,构建此维度特征的循环连接,最后将特征转换为原来的形状以便后续融合。公式描述如下: 

其中   表示RNN隐含层,   ,    和   分别为CNN层处理后的主干和分支特征。受SENet的启发,我们采用通道注意机制对两个方向的特征进行加权,使网络具有自适应调整不同上下文重要性的能力,从而更有效地捕获文本图像中的上下文信息。

 图 3 层次正交纹理感知模块

层次正交纹理感知模块(HOTA)借鉴自ContourNet [3]的LOTM模块,其设计初衷是用于捕获文本高频纹理特征用于进行精确地轮廓分割。我们将这种做法迁移到文本图像超分领域,同样分为垂直和水平方向上扩张卷积核的尺寸使得此层能够感知更多的高频轮廓信息,将其建模成通道空间注意力模块,能够隐式地增强文本轮廓的表达能力。如图1和图3所示,各级PCAB模块的输出被级联起来,作为HOTA模块的输入,因此它能综合网络不同层次的特征进行自注意力。HOTA模块也是一种双分支再特征聚合的结构,双分支分别以1xk和kx1聚合水平和垂直方向更大感受野的纹理信息,并为其添加上空洞系数,共享不同空洞系数的卷积层参数,使得其能够得到更加显著的效果。双分支特征通过一个通道注意力模块特征融合汇总以后,经过若干层卷积、残差、上采样处理,经过一层Sigmoid激活函数对每一特征值归一化,从而得到相应的注意力响应图。最后将注意力响应图与输入特征进行点乘,即可得到纹理感知增强过后的输出特征。

边缘引导的损失函数同样是一种基于L2距离的回归损失。我们将Sobel算子的参数嵌入到网络最后一层的卷积层中,并且固定此层参数,使其能端到端的获取超分辨率输出以及高清图像上的边缘响应图,用此信息来辅助网络的训练能够得到更加稳定的效果。

实验结果

我们在真实文本超分辨率数据集(TextZoom)上和七个主流场景文本识别数据集(CUTE80, IC03, IC13, IC15, IIIT5K, SVT, SVTP)上对我们的算法进行了评价。此项任务中,我们将以CRNN [6]、ASTER [7]、MORAN [5]的识别准确率作为评估超分辨率图像质量的标准,也提供PSNR/SSIM指标作为参考。

首先,为了证明所提出的方法以及其中每一模块的有效性,我们分别设计了如下几组实验。如表1所示,实验对比了超分辨率块中上下文信息不同的建模方式,分别从循环连接的方向性、特征解耦和特征冗余这几个角度进行比较,最终得出最优的设计方案(也即PCAB模块的由来)。如图4所示,我们比较了PCAB模块所用数量以及不同连接方式带来的性能差异。如表2所示,我们对PCAB、HOTA、Edge Guidance Loss分别进行了消融实验,并且与baseline网络进行了性能对比。

表 1 不同的上下文特征建模方法结果对比。V和H分别表示循环连接视觉的特征的不同方向,垂直或者水平。连接方式S和P分别表示串行连接和并行连接。注意力用的是通道注意力模块,作为循环连接后特征的信息门控

图 4 PCAB模块的连接方法、数量方面的性能差异。MDC表示模块间稠密连接

表 2 所提模块的消融实验对比分析

 
表 3 不同的超分辨率方法结果对比分析

其次,如表3所示,与当前性能最优的各大通用超分网络以及文本超分网络进行性能对比。如图5所示,我们可视化了一些样例图。

图 5 超分辨率图像可视化

最后,我们讨论了一种文本超分辨率新的用途。将其作为抵抗对抗噪声的一种有效手段,为OCR管道同时带来性能和安全性方面的提升。如图6所示,我们可以看到经过PCAN处理的带噪低分辨率样本,对对抗噪声能够起到改变数据流型、去除噪声的效果,同时还能很明显的看出来文本部分的细节被更多的重建出来了。如表4所示,我们横向比较了若干超分方法,我们的方法能够一定程度上提升OCR识别管道的安全性,可作为研究OCR管道安全性的一个值得探讨的研究方向。

图6 文本超分辨率对对抗扰动的影响

表4 超分辨率方法作为抵抗对抗噪声有效性比较

参考文献

[1] Wenjia Wang, Enze Xie, Xuebo Liu, Wenhai Wang, Ding Liang, Chunh3ua Shen, and Xiang Bai. 2020. Scene text image super-resolution in the wild. In European Conference on Computer Vision. Springer, 650–666. 

[2] Christian Ledig, Lucas Theis, Ferenc Huszár, Jose Caballero, Andrew Cunningham, Alejandro Acosta, Andrew Aitken, Alykhan Tejani, Johannes Totz, Zehan Wang, et al. 2017. Photo-realistic single image super-resolution using a generative adversarial network. In Proceedings of the IEEE conference on computer vision and pattern recognition. 4681–4690.

[3] Yuxin Wang, Hongtao Xie, Zheng-Jun Zha, Mengting Xing, Zilong Fu, and Yongdong Zhang. 2020. Contournet: Taking a further step toward accurate arbitrary-shaped scene text detection. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 11753–11762.

[4] Xing Xu, Jiefu Chen, Jinhui Xiao, Lianli Gao, Fumin Shen, and Heng Tao Shen.2020. What machines see is not what they get: Fooling scene text recognition models with adversarial text images. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 12304–12314.

[5] Canjie Luo, Lianwen Jin, and Zenghui Sun. 2019. Moran: A multi-object rectified attention network for scene text recognition. Pattern Recognition90 (2019),109–118.

[6] Baoguang Shi, Xiang Bai, and Cong Yao. 2016. An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition. IEEE transactions on pattern analysis and machine intelligence39, 11(2016), 2298–2304
[7] Baoguang Shi, Mingkun Yang, Xinggang Wang, Pengyuan Lyu, Cong Yao, and Xiang Bai. 2018. Aster: An attentional scene text recognizer with flexible rectification. IEEE transactions on pattern analysis and machine intelligence41, 9 (2018),2035–2048.




中国图象图形学学会关于开展第七届中国科协青年人才托举工程项目推荐工作的通知
中国图象图形学学会关于组织开展科技成果鉴定的通知

CSIG图像图形中国行承办方征集中

登录查看更多
0

相关内容

中科院自动化所17篇CVPR 2022 新作速览!
专知会员服务
19+阅读 · 2022年3月19日
【CVPR2022】高分辨率和多样化的视频-文本预训练模型
专知会员服务
9+阅读 · 2022年3月6日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
[ACM MM 2021]结合文字识别结果的鲁棒和精确文本视觉问答
专知会员服务
15+阅读 · 2021年11月14日
专知会员服务
50+阅读 · 2021年1月19日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【速览】ACM MM 2021 | 聚焦于人物:从现代历史电影中学习为老照片着色
中国图象图形学学会CSIG
1+阅读 · 2021年10月29日
CVPR 2021 论文大盘点-文本图像篇
极市平台
1+阅读 · 2021年9月21日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月18日
Challenges for Open-domain Targeted Sentiment Analysis
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员