Paragraphs are an important class of document entities. We propose a new approach for paragraph identification by spatial graph convolution networks (GCN) applied on OCR text boxes. Two steps, namely line splitting and line clustering, are performed to extract paragraphs from the lines in OCR results. Each step uses a beta-skeleton graph constructed from bounding boxes, where the graph edges provide efficient support for graph convolution operations. With only pure layout input features, the GCN model size is 3~4 orders of magnitude smaller compared to R-CNN based models, while achieving comparable or better accuracies on PubLayNet and other datasets. Furthermore, the GCN models show good generalization from synthetic training data to real-world images, and good adaptivity for variable document styles.


翻译:段落是一个重要的文档实体类别。我们建议了一种新的方法,通过空间图集变异网络(GCN)在OCR文本框上应用段落识别。执行两个步骤,即线分割和线组,从OCR结果的线条中提取段落。每个步骤都使用从捆绑框中构造的β-skeleton图,图形边缘为图形变异操作提供了有效的支持。由于只有纯版面输入功能,GCN模型的大小比R-CN模型小3~4级,同时在PubLayNet和其他数据集上实现类似或更好的理解。此外,GCN模型显示了从合成培训数据到现实世界图像的良好概括,以及可变文档样式的良好适应性。

1
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【图神经网络(GNN)结构化数据分析】
专知会员服务
114+阅读 · 2020年3月22日
计算机视觉最佳实践、代码示例和相关文档
专知会员服务
17+阅读 · 2019年10月9日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
3+阅读 · 2020年4月29日
已删除
Arxiv
31+阅读 · 2020年3月23日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【图神经网络(GNN)结构化数据分析】
专知会员服务
114+阅读 · 2020年3月22日
计算机视觉最佳实践、代码示例和相关文档
专知会员服务
17+阅读 · 2019年10月9日
相关资讯
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
相关论文
Arxiv
3+阅读 · 2020年4月29日
已删除
Arxiv
31+阅读 · 2020年3月23日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2018年2月11日
Top
微信扫码咨询专知VIP会员