A large scale human-labeled dataset plays an important role in creating high quality deep learning models. In this paper we present text annotation for Open Images V5 dataset. To our knowledge it is the largest among publicly available manually created text annotations. Having this annotation we trained a simple Mask-RCNN-based network, referred as Yet Another Mask Text Spotter (YAMTS), which achieves competitive performance or even outperforms current state-of-the-art approaches in some cases on ICDAR2013, ICDAR2015 and Total-Text datasets. Code for text spotting model available online at: https://github.com/openvinotoolkit/training_extensions. The model can be exported to OpenVINO-format and run on Intel CPUs.


翻译:大型人类标签数据集在创建高品质深层学习模型方面发挥了重要作用。 在本文中, 我们为开放图像V5数据集提供文本说明。 据我们所知, 这是公开手动创建的文本说明中最大的。 有了这种说明, 我们训练了一个简单的Mask- RCNN 网络, 称为“ 另类面具文本显示器 ” (YAMTS), 取得竞争性的性能, 甚至在某些情况中, ICDAR2013、 ICDAR2015 和 Total-Text 数据集的当前最先进方法超前。 文本识别模型的代码可以在以下网址上查到: https://github.com/ openvinotoolkit/ training_ extensions。 该模型可以导出到 OpenVINO- 格式, 并在 Intel CPUs 上运行 。

1
下载
关闭预览

相关内容

最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
25+阅读 · 2020年8月19日
最新《知识蒸馏》2020综述论文,20页pdf,悉尼大学
专知会员服务
157+阅读 · 2020年6月14日
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
5+阅读 · 2018年6月7日
Arxiv
0+阅读 · 2021年8月23日
SwapText: Image Based Texts Transfer in Scenes
Arxiv
4+阅读 · 2020年3月18日
Arxiv
4+阅读 · 2019年9月26日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
31+阅读 · 2018年11月13日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
5+阅读 · 2018年6月7日
相关论文
Arxiv
0+阅读 · 2021年8月23日
SwapText: Image Based Texts Transfer in Scenes
Arxiv
4+阅读 · 2020年3月18日
Arxiv
4+阅读 · 2019年9月26日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
31+阅读 · 2018年11月13日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员