The Transformer-based encoder-decoder framework is becoming popular in scene text recognition, largely because it naturally integrates recognition clues from both visual and semantic domains. However, recent studies show that the two kinds of clues are not always well registered and therefore, feature and character might be misaligned in the difficult text (e.g., with rare shapes). As a result, constraints such as character position are introduced to alleviate this problem. Despite certain success, a content-free positional embedding hardly associates stably with meaningful local image regions. In this paper, we propose a novel module called Multi-Domain Character Distance Perception (MDCDP) to establish a visual and semantic related positional encoding. MDCDP uses positional embedding to query both visual and semantic features following the attention mechanism. The two kinds of constrained features are then fused to produce a reinforced feature, generating a content-aware embedding that well perceives spacing variations and semantic affinities among characters, i.e., multi-domain character distance. We develop a novel network named CDistNet that stacks multiple MDCDPs to guide a gradually precise distance modeling. Thus, the feature-character alignment is well built even various recognition difficulties presented. We create two series of augmented datasets with increasing recognition difficulties and apply CDistNet to both them and six public benchmarks. The experiments demonstrate that CDistNet outperforms recent popular methods by large margins in challenging recognition scenarios. It also achieves state-of-the-art accuracy on standard benchmarks. In addition, the visualization shows that CDistNet achieves proper information utilization in both visual and semantic domains. Our code is given in https://github.com/simplify23/CDistNet.


翻译:以变换器为基础的编码器- decoder 框架在现场文本识别中越来越受欢迎, 主要是因为它自然地结合了视觉和语义领域的识别线索。 但是, 最近的研究显示, 这两类线索并非总能很好地登记, 因此, 特征和性格在困难的文本中可能不吻合( 例如, 形状罕见 ) 。 结果, 品格位置等限制被引入来缓解这一问题。 尽管取得了一定的成功, 一个内容不包含23 位置嵌入几乎无法与有意义的本地图像区域相联 。 在本文中, 我们提议了一个名为多面体特性远程概念概念( MDCDP) 的新颖的模块, 以建立视觉和语义相关位置相关的位置编码编码。 MDCDDP 使用定位嵌入位置来查询视觉和语义特征特征( 例如, 以稀有形状的形状) 。 两种约束性特征的结合, 产生一种内容认知嵌入式内容嵌入, 显示字符间距差和语义相似的近似距离。 我们开发了一个名为 CD- 网络, 渐渐渐变的CDCDCDDDP, 展示了两个清晰的识别识别,, 既能识别识别,,, 也创建了一种识别, 使CDC- 建立了一种识别,, 建立了双轨进式的CDDCDCD- s dex 的识别 。

0
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
Arxiv
11+阅读 · 2018年10月17日
VIP会员
相关资讯
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员