Most existing trackers are based on using a classifier and multi-scale estimation to estimate the target state. Consequently, and as expected, trackers have become more stable while tracking accuracy has stagnated. While trackers adopt a maximum overlap method based on an intersection-over-union (IoU) loss to mitigate this problem, there are defects in the IoU loss itself, that make it impossible to continue to optimize the objective function when a given bounding box is completely contained within/without another bounding box; this makes it very challenging to accurately estimate the target state. Accordingly, in this paper, we address the above-mentioned problem by proposing a novel tracking method based on a distance-IoU (DIoU) loss, such that the proposed tracker consists of target estimation and target classification. The target estimation part is trained to predict the DIoU score between the target ground-truth bounding-box and the estimated bounding-box. The DIoU loss can maintain the advantage provided by the IoU loss while minimizing the distance between the center points of two bounding boxes, thereby making the target estimation more accurate. Moreover, we introduce a classification part that is trained online and optimized with a Conjugate-Gradient-based strategy to guarantee real-time tracking speed. Comprehensive experimental results demonstrate that the proposed method achieves competitive tracking accuracy when compared to state-of-the-art trackers while with a real-time tracking speed.


翻译:大多数现有跟踪器都基于使用分类器和多尺度估计来估计目标状态。 因此,并且按预期,跟踪器在跟踪准确性停滞不前的同时变得更加稳定。 虽然跟踪器采用了基于交叉连接(IoU)损失的最大重叠方法来缓解这一问题, 但IoU损失本身存在缺陷, 这使得当一个特定约束盒完全包含在/ 没有另一个约束框的情况下无法继续优化目标功能; 这就使得精确估计目标状态非常困难。 因此, 在本文件中,我们通过提出基于远程连接(IoU)损失的新颖的跟踪方法来解决上述问题, 从而让拟议的跟踪器包含目标估计和目标分类。 目标估计部分经过培训, 以预测目标地面连接框和估计约束盒之间的数字值得分。 DIoU损失可以保持Io损失所带来的优势, 同时将两个约束盒的中点之间的距离降到最小, 从而使目标跟踪方法更加精确, 从而使得拟议的目标跟踪方法包含目标估计和目标的分类, 并同时进行最精确的在线跟踪, 我们引入一个经过培训的分类方法, 以最精确的精确性跟踪方式, 并同时进行最新的实验性跟踪, 我们引入一个经过培训的分类, 升级的路径, 实现一个部分, 升级的路径, 以最精确到最精确的路径 。

0
下载
关闭预览

相关内容

【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
专知会员服务
109+阅读 · 2020年3月12日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
从R-CNN到Mask R-CNN!
全球人工智能
17+阅读 · 2017年11月13日
已删除
将门创投
4+阅读 · 2017年11月1日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Arxiv
5+阅读 · 2018年5月22日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关VIP内容
【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
专知会员服务
109+阅读 · 2020年3月12日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
从R-CNN到Mask R-CNN!
全球人工智能
17+阅读 · 2017年11月13日
已删除
将门创投
4+阅读 · 2017年11月1日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Top
微信扫码咨询专知VIP会员