Recent multi-object tracking (MOT) systems have leveraged highly accurate object detectors; however, training such detectors requires large amounts of labeled data. Although such data is widely available for humans and vehicles, it is significantly more scarce for other animal species. We present Robust Confidence Tracking (RCT), an algorithm designed to maintain robust performance even when detection quality is poor. In contrast to prior methods which discard detection confidence information, RCT takes a fundamentally different approach, relying on the exact detection confidence values to initialize tracks, extend tracks, and filter tracks. In particular, RCT is able to minimize identity switches by efficiently using low-confidence detections (along with a single object tracker) to keep continuous track of objects. To evaluate trackers in the presence of unreliable detections, we present a challenging real-world underwater fish tracking dataset, FISHTRAC. In an evaluation on FISHTRAC as well as the UA-DETRAC dataset, we find that RCT outperforms other algorithms when provided with imperfect detections, including state-of-the-art deep single and multi-object trackers as well as more classic approaches. Specifically, RCT has the best average HOTA across methods that successfully return results for all sequences, and has significantly less identity switches than other methods.


翻译:最近的多球跟踪(MOT)系统利用了高度精确的物体探测器;然而,培训这类探测器需要大量贴标签的数据。虽然这些数据对人和车辆来说是广泛可得的,但对其他动物物种来说却更少。我们介绍了强力信心跟踪(RCT),这是一种算法,旨在即使在检测质量差的情况下也能保持稳健的性能。与以前抛弃探测信任信息的方法相比,RCT采取了一种根本不同的方法,即依靠精确的检测信任值来启动轨道、扩展轨道和过滤轨道。特别是,RCT能够通过高效地使用低信任检测(与单一对象跟踪器一起)来尽量减少身份开关,以持续跟踪物体。为了在发现不可靠的检测时对跟踪者进行评估,我们提出了具有挑战性的实际水下鱼跟踪数据集(Fishtrac)。在对Fishtrac 和UA-DETRAC数据集的评估中,我们发现RCT在提供不完善的检测时,包括状态的深度单项和多球追踪器追踪器,从而能够对物体进行持续跟踪。在不可靠探测的情况下,我们提出了一种最优的返回方法,而具体地说,而其他身份转换为最不甚优的RTA方法。

0
下载
关闭预览

相关内容

基于深度学习的行人检测方法综述
专知会员服务
68+阅读 · 2021年4月14日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
学术会议 | 知识图谱顶会 ISWC 征稿:Poster/Demo
开放知识图谱
5+阅读 · 2019年4月16日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Arxiv
9+阅读 · 2018年5月22日
Arxiv
5+阅读 · 2018年5月22日
Arxiv
3+阅读 · 2018年5月21日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员