Depth (D) indicates occlusion and is less sensitive to illumination changes, which make depth attractive modality for Visual Object Tracking (VOT). Depth is used in RGBD object tracking where the best trackers are deep RGB trackers with additional heuristic using depth maps. There are two potential reasons for the heuristics: 1) the lack of large RGBD tracking datasets to train deep RGBD trackers and 2) the long-term evaluation protocol of VOT RGBD that benefits from heuristics such as depth-based occlusion detection. In this work, we study how far D-only tracking can go if trained with large amounts of depth data. To compensate the lack of depth data, we generate depth maps for tracking. We train a "Depth-DiMP" from the scratch with the generated data and fine-tune it with the available small RGBD tracking datasets. The depth-only DiMP achieves good accuracy in depth-only tracking and combined with the original RGB DiMP the end-to-end trained RGBD-DiMP outperforms the recent VOT 2020 RGBD winners.


翻译:深度 (D) 表示封闭性, 且对照明变化不那么敏感, 这使视觉物体跟踪( VOT) 的深度模式具有吸引力。 RGBD 对象跟踪使用深度深度。 在RGBD 对象跟踪中, 最佳跟踪器是深度的 RGB 跟踪器, 使用深度地图进行额外的超光度。 超光速的有两个潜在原因:(1) 缺乏大型 RGBD 跟踪数据集来培训深度的 RGBD 跟踪器;(2) VOT RGBD 的长期评估协议, 利用深度测深探测等超光速方法。 在这项工作中, 我们研究如果用大量深度数据进行训练, 只能进行D级跟踪。 为了弥补深度数据的缺乏, 我们制作深度地图用于跟踪。 我们用生成的数据从头到脚来训练“ Depti- Dimp ”, 用现有的小RGBD 跟踪数据集进行微调。 仅深度的DMP 在深度跟踪和原始的 RGB DMP 培训的终端到终端 RGBD- DiMP 超越了最近的 VO 2020 RGBD 赢家 。

0
下载
关闭预览

相关内容

标跟踪是指:给出目标在跟踪视频第一帧中的初始状态(如位置,尺寸),自动估计目标物体在后续帧中的状态。 目标跟踪分为单目标跟踪和多目标跟踪。 人眼可以比较轻松的在一段时间内跟住某个特定目标。但是对机器而言,这一任务并不简单,尤其是跟踪过程中会出现目标发生剧烈形变、被其他目标遮挡或出现相似物体干扰等等各种复杂的情况。过去几十年以来,目标跟踪的研究取得了长足的发展,尤其是各种机器学习算法被引入以来,目标跟踪算法呈现百花齐放的态势。2013年以来,深度学习方法开始在目标跟踪领域展露头脚,并逐渐在性能上超越传统方法,取得巨大的突破。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
DeepMind科学家Trask著作《图解深度学习》,335页pdf与代码
专知会员服务
243+阅读 · 2021年6月25日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
专知会员服务
123+阅读 · 2020年9月8日
大盘点 | 性能最强的目标检测算法
新智元
13+阅读 · 2019年7月9日
Fully-Convolutional Siamese Networks for Object Tracking论文笔记
统计学习与视觉计算组
9+阅读 · 2018年10月12日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
3+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关VIP内容
DeepMind科学家Trask著作《图解深度学习》,335页pdf与代码
专知会员服务
243+阅读 · 2021年6月25日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
专知会员服务
123+阅读 · 2020年9月8日
相关资讯
大盘点 | 性能最强的目标检测算法
新智元
13+阅读 · 2019年7月9日
Fully-Convolutional Siamese Networks for Object Tracking论文笔记
统计学习与视觉计算组
9+阅读 · 2018年10月12日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
相关论文
Arxiv
17+阅读 · 2021年3月29日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
3+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
6+阅读 · 2018年2月8日
Top
微信扫码咨询专知VIP会员