While deep-learning based tracking methods have achieved substantial progress, they entail large-scale and high-quality annotated data for sufficient training. To eliminate expensive and exhaustive annotation, we study self-supervised learning for visual tracking. In this work, we develop the Crop-Transform-Paste operation, which is able to synthesize sufficient training data by simulating various appearance variations during tracking, including appearance variations of objects and background interference. Since the target state is known in all synthesized data, existing deep trackers can be trained in routine ways using the synthesized data without human annotation. The proposed target-aware data-synthesis method adapts existing tracking approaches within a self-supervised learning framework without algorithmic changes. Thus, the proposed self-supervised learning mechanism can be seamlessly integrated into existing tracking frameworks to perform training. Extensive experiments show that our method 1) achieves favorable performance against supervised learning schemes under the cases with limited annotations; 2) helps deal with various tracking challenges such as object deformation, occlusion, or background clutter due to its manipulability; 3) performs favorably against state-of-the-art unsupervised tracking methods; 4) boosts the performance of various state-of-the-art supervised learning frameworks, including SiamRPN++, DiMP, and TransT (based on Transformer).


翻译:虽然基于深层学习的跟踪方法取得了长足进展,但需要大规模和高质量的高品质附加说明数据,以进行充分的培训。为了消除昂贵和详尽的说明,我们研究自我监督的学习方法,以便进行视觉跟踪。在这项工作中,我们开发了作物-变形-帕斯特操作,通过模拟跟踪过程中的各种外观变化,包括物体的外观变化和背景干扰,能够综合足够的培训数据。由于所有综合数据中都了解目标国,现有的深层跟踪者可以在没有人类说明的情况下以常规方式使用综合数据进行培训。拟议的目标觉悟数据合成方法在不受算法变化的自我监督学习框架内调整现有的跟踪方法。因此,拟议的自我监督的学习机制可以顺利地纳入现有的培训跟踪框架。广泛的实验表明,我们的方法1 (a) 与受监管的、说明有限的情况下的学习计划相比,取得了优异的业绩;(2) 有助于应对各种跟踪挑战,如物体变形、隐蔽或背景因其可操作性而模糊的跟踪挑战。 (3) 与州级和州级的同步跟踪框架相比,可以顺利地进行。

0
下载
关闭预览

相关内容

多标签学习的新趋势(2020 Survey)
专知会员服务
41+阅读 · 2020年12月6日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Learning Discriminative Model Prediction for Tracking
Arxiv
6+阅读 · 2018年3月28日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
Top
微信扫码咨询专知VIP会员