CVPR 2020 | DRRG:基于深度关系推理图网络的任意形状文本检测(已开源)

2020 年 5 月 22 日 CVer

  • 论文下载: http://arxiv.org/abs/2003.07493
  • 代码链接: https://github.com/GXYM/DRRG


图像文本检测一种常用的思路就是,首先找出文字/文本的基本区域或部件,然后分析这些部件之间的相互关系,再利用知识规则或学习策略来连接这些部件,最后构造出所需要的文字/文本区域,完成文本检测与提取。这就是文本检测传统方法中基于文字/文本连通域分析的经典技术[1,2,3],也是文本检测深度学习方法中基于文字/文本组件连接的流行技术[4,5,6]。本CVPR 2020Oral)论文(”Deep Relational Reasoning Graph Network for Arbitrary Shape Text Detection”)就是一种新的基于组件连接的文本检测技术[7],构建了深度关系推理图网络,有效地学习与推理文字/文本组件之间的连接及语义关系,高精度地检测复杂场景图像中的任意形状文本。 

这篇CVPR 2020论文(”Deep Relational Reasoning Graph Network for Arbitrary Shape Text Detection”)提出了一种基于文字/文本组件连接的检测任意形状的方法,利用图卷积神经网络来进行组件之间的深度关系推理,有效地解决了复杂情况下文本组件的连接问题(如图1所示)。该方法将每个文本实例表示成许多个矩形的文本组件,然后把每个文本组件视为一个节点,通过该论文提出的局部子图(Local Graph)将同一张图中的文本组件节点划分成多个子图,每个子图包含一个中心节点和其二阶以内的邻居节点,最后通过一个图卷积神经网络模型进行学习和推理中心节点与其邻居节点的关系。同时,在局部子图的桥接下,文本组件预测模型(CNN)和关系推理模型(GCN)组合成了一个端到端可训练的任意形状文本检测系统。实验证明,该方法在多个场景文本检测数据集上达到了State-of-the-art的效果。


 
一、研究背景

场景文本检测已广泛应用于各种应用程序中,例如在线教育、产品搜索、即时翻译和视频场景理解。随着深度学习的繁荣,业内很多文本检测算法在文本实例具有规则形状或长宽比受控的环境中取得了令人印象深刻的性能。但是,由于文本表示形式的局限性,这些方法往往无法检测复杂场景图像中具有任意形状的文本。当前,任意形状文本检测已经成为了文本检测一个研究热点。但是,由于场景文本的多样性和复杂性,任意形状文本检测仍然是一项具有挑战性的任务。

 
二、原理简述


具体方法细节如图2所示,本文方法主要包含五个部分:共享卷积层(Shared Convolutions)、文本组件预测网络(Text Component Prediction)、局部子图(Local Graphs)、关系推理模型(Relational Reasoning)和组件的归并过程(Link Merging)。文本组件预测网络和深度关系推理网络共享卷积特征;共享卷积使用VGG-16FPN结构作为主干网络(如图3所示)。文本组件预测网络使用共享的卷积,预测获取文本组件的几何属性(中心位置、宽、高和旋转角)。获得几何属性后,局部子图可以粗略地建立不同文本组件之间的关系,并将文本组件划分成多个局部子图。基于局部子图,关系推理网络将进一步推断中心节点与其邻居节点之间连接的可能性。最后,根据关系推理网络获得的推理结果将文本组件归并聚合为整体文本实例。

 

 

对于文本组件预测网络(如图4所示),每个文本组件需要获得其几何属性,包括中心坐标、宽、高和旋转角。这里,组件的中心点坐标通过计算得到,文本组件的旋转角通过预测文本组件的旋转角的sin值和cos值得到,组件高度(H)通过预测当前参考点到文本组件上边界距离(h1)以及到下边界的距离(h2) 来获得,组件的宽(w)通过公式(1)计算得到,



局部子图的建立依据空间相似度寻找中心节点的二阶邻阶(公式(10));为了避免局部子图的重复计算和减少计算量,局部子图的生成还需要满足公式(11)。


对于关系推理网络,我们采用了一个四层的图卷积神网络,具体结构如公式(15)和(16)所示,



其中,关系推理网络的输入包括节点特征(X)和邻接矩阵(A),其具体的生成和计算过程如图5所示。


本文的方法采用完全端到端的训练方式,网络的损失函数包含三个部分,;其中,为文本区域的分类损失,为文本组件的回归损失,为推理网络的节点分类损失。

 
三、主要实验结果及可视化效果


从表2来看,该文的方法在曲形文本数据集(Total-TextCTW1500)以及多语言长文本数据集(MSRA-TD500)上都取得了State-of-the-art的检测效果。 


       

7展示了一些可视化的场景文本检测结果图。该方法能够较好地检测任意形状的场景文本,并且在长文本且字符间距较大的情况下也能取得很好的检测性能。

 
四、总结及讨论
本文提出了一种新颖的基于组件连接的任意形状文本检测方法。该方法构建了深度关系推理图网络模型,采用该图卷积神经网络关系推理模型来学习和推理文字/文本组件之间的连接及语义关系,通过关系推理模型得到连接关系,并进行文本组件归并得到完整的文本实例。在多个文本检测数据集上的实验表明,该方法不仅对任意形状的文本都有良好的检测性能,而且对多方向和多语言场景文本也有很好的检测效果。

 

五、相关资源
  • 论文下载:http://arxiv.org/abs/2003.07493;
  • 代码链接:https://github.com/GXYM/DRRG
 
参考文献
[1] Yi-Feng Fan, Xinwen Hou, and Cheng-Lin Liu, “A hybrid approach to detect and localize texts in natural scene images,” IEEE Trans.Image Processing, 20(3): 800-813, 2011.
[2] Lukas Neumann, and JiriMatas, “Scene text localization and recognition with oriented stroke detection,” ICCV 2013: 97-104.
[3] Xu-Cheng Yin, Xuwang Yin, Kaizhu Huang, and Hong-Wei Hao,“Robust text detection in natural scene images,” IEEE Trans. Pattern Analysisand Machine Intelligence, 36(5): 970-983, 2014.
[4] Baoguang Shi, Xiang Bai, and Serge J. Belongie,“Detecting oriented text in natural images by linking segments, “ CVPR 2017:3482–3490.
[5] Youngmin Baek, Bado Lee, Dongyoon Han, Sangdoo Yun, and Hwalsuk Lee, “Character region awareness for text detection,” CVPR 2019:9365-9374.
[6] Wei Feng, Wenhao He, Fei Yin, Xu-Yao Zhang, and Cheng-LinLiu, “Textdragon: An end-to-end framework for arbitrary shaped text spotting,”ICCV 2019: 9075-9084.
[7] Shi-Xue Zhang, Xiaobin Zhu, Jie-Bo Hou, Chang Liu, Chun Yang, Hongfa Wang, Xu-Cheng Yin, “Deep relational reasoning graph network for arbitrary shape text detection,” CVPR 2020.
 

原文作者:Shi-Xue Zhang (张世学), XiaobinZhu (祝晓斌), Jie-BoHou (侯杰波), ChangLiu (刘畅), ChunYang (杨春), HongfaWang (王红法), Xu-ChengYin* (殷绪成).

 

撰稿:张世学

编排:高 学

审校:连宙辉

发布:金连文

免责声明: 1 )本文仅代表撰稿者观点,个人理解及总结不一定准确及全面,论文完整思想及论点应以原论文为准。( 2 )本文观点不代表本公众号立场。  

论文下载

在CVer公众号后台回复:DRRG,即可下载本论文

重磅!CVer-场景文本检测 交流群已成立


扫码添加CVer助手,可申请加入CVer-场景文本检测&识别和OCR微信交流群,目前已满400多人!


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如场景文本检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加微信群


▲长按关注CVer公众号

请给CVer一个在看

登录查看更多
1

相关内容

【斯坦福大学-论文】实体上下文关系路径的知识图谱补全
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
35+阅读 · 2020年1月10日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
自然场景文本检测技术综述(CTPN, SegLink, EAST)
极市平台
12+阅读 · 2019年7月30日
自然场景下的文字检测:从多方向迈向任意形状
人工智能前沿讲习班
8+阅读 · 2019年6月7日
【CVPR2018】物体检测中的结构推理网络
深度学习大讲堂
6+阅读 · 2018年7月30日
白翔:复杂开放场景中的文本理解
深度学习大讲堂
12+阅读 · 2018年6月5日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Arxiv
12+阅读 · 2019年1月24日
Arxiv
12+阅读 · 2018年9月15日
Arxiv
4+阅读 · 2018年6月5日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员