本文提出一种Transformer辅助跟踪框架,可与判别式跟踪器结合(如组成:TrDiMP),表现SOTA!性能优于SiamRPN++等,代码刚刚开源!

在视频目标跟踪中,连续帧之间存在丰富的时间上下文,在现有的跟踪器中已大大忽略了这些上下文。在这项工作中,我们桥接单个视频帧,并通过一个用于稳固对象跟踪的Transformer架构探索跨它们的时间上下文。与在自然语言处理任务中使用转换器的经典用法不同,我们将其编码器和解码器分为两个并行分支,并在类似于Siamese的跟踪pipeline中精心设计它们。Transformer编码器通过基于注意力的特征增强来促进目标模板,这有利于高质量跟踪模型的生成。Transformer解码器将跟踪提示从先前的模板传播到当前帧,从而简化了对象搜索过程。我们的Transformer辅助跟踪框架整洁并以端到端的方式进行了训练。使用提出的Transformer,一种简单的连体匹配方法就可以胜过当前表现最佳的跟踪器。通过将我们的Transformer与最新的判别式跟踪pipeline相结合,我们的方法在流行的跟踪基准上创下了一些新的最新记录。

https://www.zhuanzhi.ai/paper/c862787c6e21054a17ed51c178372f5e

成为VIP会员查看完整内容
16

相关内容

专知会员服务
33+阅读 · 2021年5月12日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
专知会员服务
20+阅读 · 2021年4月2日
专知会员服务
32+阅读 · 2021年3月7日
【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
55+阅读 · 2021年3月3日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
48+阅读 · 2021年2月7日
专知会员服务
8+阅读 · 2020年12月10日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
论文笔记:多任务相关粒子滤波跟踪器
统计学习与视觉计算组
9+阅读 · 2017年7月7日
Arxiv
17+阅读 · 2021年3月29日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
VIP会员
相关VIP内容
专知会员服务
33+阅读 · 2021年5月12日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
专知会员服务
20+阅读 · 2021年4月2日
专知会员服务
32+阅读 · 2021年3月7日
【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
55+阅读 · 2021年3月3日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
48+阅读 · 2021年2月7日
专知会员服务
8+阅读 · 2020年12月10日
相关论文
微信扫码咨询专知VIP会员