Recently, video text detection, tracking, and recognition in natural scenes are becoming very popular in the computer vision community. However, most existing algorithms and benchmarks focus on common text cases (e.g., normal size, density) and single scenarios, while ignoring extreme video text challenges, i.e., dense and small text in various scenarios. In this competition report, we establish a video text reading benchmark, DSText, which focuses on dense and small text reading challenges in the video with various scenarios. Compared with the previous datasets, the proposed dataset mainly include three new challenges: 1) Dense video texts, a new challenge for video text spotter. 2) High-proportioned small texts. 3) Various new scenarios, e.g., Game, sports, etc. The proposed DSText includes 100 video clips from 12 open scenarios, supporting two tasks (i.e., video text tracking (Task 1) and end-to-end video text spotting (Task 2)). During the competition period (opened on 15th February 2023 and closed on 20th March 2023), a total of 24 teams participated in the three proposed tasks with around 30 valid submissions, respectively. In this article, we describe detailed statistical information of the dataset, tasks, evaluation protocols and the results summaries of the ICDAR 2023 on DSText competition. Moreover, we hope the benchmark will promise video text research in the community.


翻译:近年来,计算机视觉领域中的视频文本检测、跟踪和识别在自然场景中变得越来越受欢迎。然而,大多数现有的算法和基准都专注于常规的文本案例(例如普通大小和密度)和单个场景,而忽略了极端的视频文本挑战,即各种场景中的密集小文本。在本次比赛报告中,我们建立了一个视频文本阅读基准,DSText,重点解决视频中密集小文本的阅读挑战,包括不同场景。与之前的数据集相比,提出的数据集主要包括三个新挑战:1) 密集视频文本,这是视频文本识别器的新挑战。2) 高比例小文本。3) 各种新场景,例如游戏,体育等。所提出的DSText包括来自12个开放场景的100个视频剪辑,支持两个任务(即视频文本跟踪(任务1)和端到端视频文本识别(任务2))。在比赛期间(于2023年2月15日开放,于2023年3月20日关闭),共有24个团队分别参加了三个提出的任务,共提交了30个有效提交。在本文中,我们描述了数据集,任务,评估协议以及ICDAR 2023 DSText比赛的结果总结的详细统计信息。此外,我们希望基准能够促进社区中的视频文本研究。

0
下载
关闭预览

相关内容

ICDAR是一个非常成功的旗舰会议系列,是文献分析界研究人员、科学家和实践者的最大和最重要的国际会议。该会议得到了IAPR-TC 10/11的认可,成立于近30年前。第15届文件分析与识别国际会议(ICDAR 2019)由澳大利亚悉尼科技大学(UTS)主办,并在悉尼国际会议中心(ICC)举行。接受的论文由会议出版服务(CPS)出版,并提交给IEEE Xplore数字图书馆。官网链接:http://icdar2019.org/
图像分割方法综述
专知会员服务
56+阅读 · 2020年11月22日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡一分钟】DS-SLAM: 动态环境下的语义视觉SLAM
泡泡机器人SLAM
23+阅读 · 2019年1月18日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
上百份文字的检测与识别资源,包含数据集、code和paper
数据挖掘入门与实战
17+阅读 · 2017年12月7日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
VIP会员
相关VIP内容
图像分割方法综述
专知会员服务
56+阅读 · 2020年11月22日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员