Tracking-by-detection is a very popular framework for single object tracking which attempts to search the target object within a local search window for each frame. Although such local search mechanism works well on simple videos, however, it makes the trackers sensitive to extremely challenging scenarios, such as heavy occlusion and fast motion. In this paper, we propose a novel and general target-aware attention mechanism (termed TANet) and integrate it with tracking-by-detection framework to conduct joint local and global search for robust tracking. Specifically, we extract the features of target object patch and continuous video frames, then we concatenate and feed them into a decoder network to generate target-aware global attention maps. More importantly, we resort to adversarial training for better attention prediction. The appearance and motion discriminator networks are designed to ensure its consistency in spatial and temporal views. In the tracking procedure, we integrate the target-aware attention with multiple trackers by exploring candidate search regions for robust tracking. Extensive experiments on both short-term and long-term tracking benchmark datasets all validated the effectiveness of our algorithm. The project page of this paper can be found at \url{https://sites.google.com/view/globalattentiontracking/home/extend}.


翻译:跟踪跟踪是一个非常受欢迎的单一物体跟踪框架,它试图在每一框架的本地搜索窗口中搜索目标对象。虽然这种本地搜索机制在简单的视频上运作良好,但是它使跟踪者对极具挑战性的情景敏感,例如密集隔离和快速运动。在本文件中,我们建议建立一个创新的和一般的目标认知关注机制(名为TANet),并将它与跟踪和跟踪跟踪框架结合起来,以便进行地方和全球联合搜索以进行稳健跟踪。具体地说,我们提取目标对象补丁和连续视频框架的特征,然后将它们连接并输入一个解码器网络,以生成有目标意识的全球关注地图。更重要的是,我们利用对抗性培训进行更好的关注预测。外观和运动歧视网络旨在确保其在空间和时间视角上的一致性。在跟踪过程中,我们通过探索候选人搜索区域以进行稳健跟踪,将目标识别关注与多个跟踪者结合起来。我们在短期和长期跟踪基准数据集上进行广泛的实验,从而验证了我们的算法的有效性。我们的项目页面是:全球轨道/轨道。

1
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
专知会员服务
50+阅读 · 2021年1月19日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
105+阅读 · 2020年6月10日
专知会员服务
109+阅读 · 2020年3月12日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
62+阅读 · 2020年1月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
Arxiv
17+阅读 · 2021年3月29日
Area Attention
Arxiv
5+阅读 · 2019年5月23日
VIP会员
Top
微信扫码咨询专知VIP会员