【泡泡一分钟】一种新型的追踪方法:学习追踪长期依赖的多个线索(ICCV2017-29)

2018 年 6 月 3 日 泡泡机器人SLAM

每天一分钟,带你读遍机器人顶级会议文章

标题:Tracking The Untrackable: Learning to Track Multiple Cues with Long-Term Dependencies

作者:Amir Sadeghian, Alexandre Alahi, Silvio Savarese

来源:International Conference on Computer Vision (ICCV 2017)

播音员:Amy

编译:王嫣然 周平(32)

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权



摘要


       多目标追踪(MTT)问题的大多数现有解决方案都没有将线索以长时间连贯的方式进行组合。在本文中,我们提出了一种在线方法,可以对多个线索进行长时间依赖性编码。


图1 一种基于RNNs结构的方法(每个RNN都是由梯形图描绘的),该方法学习通过多个线索(外观、动作和交互)来编码长期的时间依赖关系。


追踪方法的一个关键挑战是准确追踪被遮挡的目标或那些与周围物体具有相似外观属性的目标。为了解决这个问题,我们提出了一种递归神经网络(RNN)结构,这种结构可以将多个线索联合在一个时间窗口上。并且可以修正数据关联错误,从封闭状态恢复观察结果。我们通过使用外观,运动,甚至交互来追踪多个目标,从而证明数据驱动方法的稳健性。我们的方法在多个公开数据集,包括具有挑战性的MOT基准测试上都优于以前的方法。

图2 斯坦福无人机数据集的定性结果。第一行展示了我们方法的追踪结果,而第二行显示了mdp+sf-mc的结果。虚线圆圈表示在前面方法中的ID转换。


Abstract

The majority of existing solutions to the Multi-Target  Tracking (MTT) problem do not combine cues over a long  period of time in a coherent fashion. In this paper, we  present an online method that encodes long-term temporal  dependencies across multiple cues. One key challenge of  tracking methods is to accurately track occluded targets or  those which share similar appearance properties with surrounding  objects. To address this challenge, we present a  structure of Recurrent Neural Networks (RNN) that jointly  reasons on multiple cues over a temporal window. Our  method allows to correct data association errors and recover  observations from occluded states. We demonstrate  the robustness of our data-driven approach by tracking multiple  targets using their appearance, motion, and even interactions.  Our method outperforms previous works on multiple  publicly available datasets including the challenging  MOT benchmark.


如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号(paopaorobot_slam)


点击“阅读原文”,即可获取本文下载链接。


欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/forums/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com


登录查看更多
0

相关内容

ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。不同于在美国每年召开一次的CVPR和只在欧洲召开的ECCV,ICCV在世界范围内每两年召开一次。ICCV论文录用率非常低,是三大会议中公认级别最高的。ICCV会议时间通常在四到五天,相关领域的专家将会展示最新的研究成果。
【CMU】基于图神经网络的联合检测与多目标跟踪
专知会员服务
56+阅读 · 2020年6月24日
基于深度学习的表面缺陷检测方法综述
专知会员服务
85+阅读 · 2020年5月31日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【泡泡一分钟】用于视角可变重定位的语义地图构建
泡泡机器人SLAM
19+阅读 · 2019年10月21日
【泡泡一分钟】利用四叉树加速的单目实时稠密建图
泡泡机器人SLAM
28+阅读 · 2019年4月26日
【泡泡一分钟】学习紧密的几何特征(ICCV2017-17)
泡泡机器人SLAM
20+阅读 · 2018年5月8日
【泡泡一分钟】端到端的弱监督语义对齐
泡泡机器人SLAM
53+阅读 · 2018年4月5日
【泡泡一分钟】动态环境下稳健的单目SLAM
泡泡机器人SLAM
13+阅读 · 2018年3月22日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
Top
微信扫码咨询专知VIP会员