ECCV 2020 目标跟踪论文大盘点

2020 年 10 月 4 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨CV君
来源丨我爱计算机视觉
编辑丨极市平台

极市导读

 

本文盘点了ECCV 2020中的目标跟踪相关研究,包括一部分业内非常知名的工作,值得关注。>>加入极市CV技术交流群,走在计算机视觉的最前沿


本文盘点ECCV 2020 所有与跟踪相关的研究,单指目标的跟踪,不涉及人体姿态等点的跟踪,总计 19 篇文章,其中12篇开源或者将开源。

其中多目标跟踪、单目标跟踪、对抗学习+目标跟踪研究工作较多。其中有已经特别知名的工作,比如来自CenterNet思想延申的 Tracking Objects as Points ,非常值得关注。

下载包含这些论文的 ECCV 2020 所有论文:

https://www.ecva.net/papers.php

多目标跟踪 MOT

Chained-Tracker: Chaining Paired Attentive Regression Results for End-to-End Joint Multiple-Object Detection and Tracking
作者 | Jinlong Peng, Changan Wang, Fangbin Wan, Yang Wu, Yabiao Wang, Ying Tai, Chengjie Wang, Jilin Li, Feiyue Huang, Yanwei Fu
单位 | 腾讯优图;复旦大学;奈良先端科学技术大学院大学
论文 | https://arxiv.org/abs/2007.14557
代码 | https://github.com/pjl1995/CTracker
备注 | ECCV 2020 Spotlight
视频丨https://v.qq.com/x/page/k3152fqim69.html


Segment as Points for Efficient Online Multi-Object Tracking and Segmentation
作者 | Zhenbo Xu, Wei Zhang, Xiao Tan, Wei Yang, Huan Huang, Shilei Wen, Errui Ding, Liusheng Huang
单位 | 中国科学技术大学;百度
论文 | https://arxiv.org/abs/2007.01550
代码 | https://github.com/detectRecog/PointTrack
备注 | ECCV2020 Oral
以点来分割,高效的在线多目标跟踪和分割


Tracking Objects as Points
作者 | Xingyi Zhou, Vladlen Koltun, Philipp Krähenbühl
单位 | 得克萨斯大学奥斯汀分校;英特尔
论文 | https://arxiv.org/abs/2004.01177
代码 | https://github.com/xingyizhou/CenterTrack
备注 | ECCV 2020 Spotlight
以22 FPS的速度在MOT17数据集上实现了67.3%的MOTA,以15 FPS的速度在KITTI跟踪基准上实现了89.4%的MOTA。

CenterTrack在最新发布的nuScenes 3D跟踪基准上达到了28.3%AMOTA@0.2,在28 FPS的运行速度下,大幅超越了该基准上的单目基线。

Demo(openpose和YOLO的视频文件):

 

3D 目标跟踪 demo :


Towards Real-Time Multi-Object Tracking
作者 | Zhongdao Wang, Liang Zheng, Yixuan Liu, Yali Li, Shengjin Wang
单位 | 清华大学;澳大利亚国立大学
论文 | https://arxiv.org/abs/1909.12605
代码 | https://github.com/Zhongdao/Towards-Realtime-MOT
备注 | ECCV 2020
在以往的工作中,多目标跟踪系统的检测和表观嵌入模块使分离的,该文使检测与表观嵌入共享模型,设计了第一个实时的MOT系统,随分辨率不同其运行速度为22至40 FPS。同时,它的跟踪精度与SOTA的分离模型相近。


Simultaneous Detection and Tracking with Motion Modelling for Multiple Object Tracking
作者 | ShiJie Sun, Naveed Akhtar, XiangYu Song, HuanSheng Song, Ajmal Mian , Mubarak Shah
单位 | 长安大学;西澳大学;迪肯大学;中佛罗里达大学
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123690613.pdf
代码 | https://github.com/shijieS/OmniMOTDataset
备注 | ECCV 2020



单目标跟踪


PG-Net: Pixel to Global Matching Network for Visual Tracking
作者 | Bingyan Liao, Chenye Wang, Yayun Wang, Yaonong Wang, Jun Yin
单位 | 浙江大华技术股份有限公司
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123670426.pdf
备注 | ECCV 2020


CLNet: A Compact Latent Network for Fast Adjusting Siamese Trackers
作者 | Xingping Dong, Jianbing Shen, Ling Shao, Fatih Porikli
单位 | Inception Institute of Artificial Intelligence;Mohamed bin Zayed University of Artificial Intelligence;Australian National University
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123650375.pdf
代码 | https://github.com/xingpingdong/CLNet-tracking
备注 | ECCV 2020


Learning Feature Embeddings for Discriminant Model based Tracking
作者 | Linyu Zheng, Ming Tang, Yingying Chen, Jinqiao Wang, Hanqing Lu
单位 | 中科院;国科大;深圳英飞拓科技股份有限公司;ObjectEye Inc
论文 | https://arxiv.org/abs/1906.10414
代码 | https://github.com/noneUmbrella/DCFST
备注 | ECCV 2020


Object Tracking using Spatio-Temporal Networks for Future Prediction Location
作者 | Yuan Liu, Ruoteng Li, Yu Cheng, Robby T. Tan, Xiubao Sui
单位 | 南京理工大学;新加坡国立大学;耶鲁-新加坡国立大学学院
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123670001.pdf
备注 | ECCV 2020
利用 Spatio-Temporal 网络进行目标跟踪,实现未来的预测定位。


Know Your Surroundings: Exploiting Scene Information for Object Tracking
作者 | Goutam Bhat, Martin Danelljan, Luc Van Gool, Radu Timofte
单位 | 苏黎世联邦理工学院
论文 | https://arxiv.org/abs/2003.11014
备注 | ECCV 2020
利用场景信息用于目标跟踪,所提出的方法在3个跟踪基准上创造了新SOTA,在最近的GOT-10k数据集上实现了63.6%的AO得分。


Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping
作者 | Adam W. Harley, Shrinidhi K. Lakshmikanth, Paul Schydlo, Katerina Fragkiadaki
单位 | 卡内基梅隆大学
论文 | https://arxiv.org/abs/2008.01295
代码 | https://github.com/aharley/neural_3d_tracking(未开源)
备注 | ECCV 2020
通过观察静态场景,跟踪出现的新来目标。


RGBT 跟踪


Challenge-Aware RGBT Tracking
作者 | Chenglong Li, Lei Liu, Andong Lu, Qing Ji, Jin Tang
单位 | 安徽大学
论文 | https://arxiv.org/abs/2007.13143
备注 | ECCV 2020
RGB与热源信号的目标跟踪。

Anchor-free 跟踪


Ocean: Object-aware Anchor-free Tracking
作者 | Zhipeng Zhang, Houwen Peng, Jianlong Fu, Bing Li, Weiming Hu
单位 | CASIA & AI School;微软
论文 | https://arxiv.org/abs/2006.10721
代码 | https://github.com/researchmm/TracKit
备注 | ECCV 2020
Anchor-free 跟踪器在VOT-2018、VOT-2019、OTB-100、GOT-10k和LaSOT等五个基准上实现了SOTA。
视频demo:
https://v.qq.com/x/page/c3152x4cg54.html


远程眼动跟踪


Deep Learning-based Pupil Center Detection for Fast and Accurate Eye Tracking System
作者 | Kang Il Lee, Jung Ho Jeon, Byung Cheol Song
单位 | 韩国仁荷大学
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123640035.pdf
备注 | ECCV 2020
所提出的系统不仅在通用计算机环境下可达到52 FPS,而且在BioID、GI4E和Talking Face Video数据集的精细度精度方面分别达到96.71%、99.84%和96.38%。
视频丨https://v.qq.com/x/page/y3152g4y78s.html

对抗学习+目标跟踪


SPARK: Spatial-aware Online Incremental Attack Against Visual Tracking
作者 | Qing Guo, Xiaofei Xie, Felix Juefei-Xu, Lei Ma, Zhongguo Li, Wanli Xue, Wei Feng, Yang Liu
单位 | 天津大学;南洋理工大学;阿里;Kyushu University;天津理工大学
论文 | https://arxiv.org/abs/1910.08681
备注 | ECCV 2020


Efficient Adversarial Attacks for Visual Object Tracking
作者 | Siyuan Liang, Xingxing Wei, Siyuan Yao, Xiaochun Cao
单位 | 中科院;国科大;鹏城实验室;北航
论文 | https://arxiv.org/abs/2008.00217
备注 | ECCV 2020
FAN可以在10ms内生成一个对抗性实例,实现有效的针对性攻击(OTB上至少40%的drop rate)和非针对性攻击(OTB上至少70%的drop rate)。


Robust Tracking against Adversarial Attacks
作者 | Shuai Jia, Chao Ma, Yibing Song, Xiaokang Yang
单位 | 上海交通大学;腾讯AI
论文 | https://arxiv.org/abs/2007.09919
代码 | https://github.com/joshuajss/RTAA
备注 | ECCV 2020


细胞跟踪


细胞跟踪,弱监督学习
Weakly-Supervised Cell Tracking via Backward-and-Forward Propagation
作者 | Kazuya Nishimura, Junya Hayashida, Chenyang Wang, Dai Fei Elmer Ker, Ryoma Bise
单位 | 日本九州大学;港中文
论文 | https://arxiv.org/abs/2007.15258
代码 | https://github.com/naivete5656/WSCTBFP
备注 | ECCV 2020


数据集


大规模多类别目标跟踪数据集
TAO: A Large-Scale Benchmark for Tracking Any Object
作者 | Achal Dave, Tarasha Khurana, Pavel Tokmakov, Cordelia Schmid, Deva Ramanan
单位 | CMU;Inria;Argo AI
论文 | https://arxiv.org/abs/2005.10356
代码 | http://taodataset.org/#



推荐阅读


ACCV 2020国际细粒度网络图像识别竞赛即将开赛!
添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

△长按添加极市小助手

△长按关注极市平台,获取 最新CV干货

觉得有用麻烦给个在看啦~   
登录查看更多
7

相关内容

标跟踪是指:给出目标在跟踪视频第一帧中的初始状态(如位置,尺寸),自动估计目标物体在后续帧中的状态。 目标跟踪分为单目标跟踪和多目标跟踪。 人眼可以比较轻松的在一段时间内跟住某个特定目标。但是对机器而言,这一任务并不简单,尤其是跟踪过程中会出现目标发生剧烈形变、被其他目标遮挡或出现相似物体干扰等等各种复杂的情况。过去几十年以来,目标跟踪的研究取得了长足的发展,尤其是各种机器学习算法被引入以来,目标跟踪算法呈现百花齐放的态势。2013年以来,深度学习方法开始在目标跟踪领域展露头脚,并逐渐在性能上超越传统方法,取得巨大的突破。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
82+阅读 · 2020年9月27日
专知会员服务
109+阅读 · 2020年3月12日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
专知会员服务
85+阅读 · 2020年1月20日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
CVPR 2019 论文大盘点-目标跟踪篇
极市平台
20+阅读 · 2019年8月8日
【学界】CVPR 2019 论文大盘点—目标检测篇
GAN生成式对抗网络
9+阅读 · 2019年7月1日
CVPR 2019 论文大盘点—目标检测篇
极市平台
33+阅读 · 2019年7月1日
CVPR 2019 论文大盘点-超分辨率篇
极市平台
77+阅读 · 2019年6月23日
CVPR 2019 论文大盘点-人脸技术篇
极市平台
20+阅读 · 2019年6月21日
Arxiv
3+阅读 · 2019年9月5日
Learning Discriminative Model Prediction for Tracking
S4Net: Single Stage Salient-Instance Segmentation
Arxiv
10+阅读 · 2019年4月10日
Arxiv
7+阅读 · 2018年6月19日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
8+阅读 · 2018年1月30日
VIP会员
相关VIP内容
专知会员服务
82+阅读 · 2020年9月27日
专知会员服务
109+阅读 · 2020年3月12日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
专知会员服务
85+阅读 · 2020年1月20日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
Top
微信扫码咨询专知VIP会员