©PaperWeekly 原创 · 作者|黄飘
学校|华中科技大学硕士生
研究方向|多目标跟踪
之前的文章中我们介绍了联合检测和跟踪的多目标跟踪框架,这类框架最大优势在于可以利用优秀的检测器平衡不同观测输入的质量。随之又介绍了端到端的数据关联类算法,这类算法的优势在于可以利用 MOT 数据信息缓解人工提取特征和计算特征距离的弊端。这次我们要介绍的是基于单目标跟踪(SOT)算法的 MOT 算法,这类算法的优缺点可以看我下面的介绍。
前情回顾(FAMNet、DMAN)
论文标题:Online Multi-Object Tracking with Dual Matching Attention Network
论文来源:ECCV 2018
论文链接:https://arxiv.org/abs/1902.00749
代码链接:https://github.com/jizhu1023/DMAN_MOT
在数据关联部分,我们可以注意到存在两个识别部分,作者称之为时空注意力,其中时间注意力就是第一点中的 verfication 任务,而空间注意力就对应图中的identification任务 ,这里利用 SOT 输出的响应图作为注意力 mask,分别基于特征预测了目标身份信息。
对于第一点,其实通过图就可以明白,是通过对于历史轨迹特征的质量进行自适应评估,并对特征自动融合。而对于第二点,关于 SOT 如何融入网络,可以自行搜索 CFNet 等 SOT 网络。而对于 ECO 算法,作者考虑到相似表观目标中容易出现的多峰问题进行了改进:
1.2 FAMNet
利用其提出的 R1TA Power Iteration Layer 降低连续多帧数据关联的复杂度,并实现连续多帧的跟踪训练。
论文标题:Online Multi-Object Tracking Using CNN-based Single Object Tracker with Spatial-Temporal Attention Mechanism
论文来源:ICCV 2017
论文链接:https://arxiv.org/abs/1708.02843
看完整个流程我惊了,尤其是 ROI Pooled Features 那一部分,比 Tracktor++ 提出得还早。通过将不同目标映射到特征图上进行进一步特征提取和位置回归,只不过作者当时并没有从检测入手,所以效果不突出。
LSST
KCF
整体来看包含了:
基于检测的校正,即对 SOT 结果和 Detection 信息利用 multicut 进行数据关联,对于这类图模型的构建可以参照我之前写的博客 [7]。有了目标实际上就有了图节点,那么 SOT 模型就是为边权而服务的:
模型更新
为了保证目标从遮挡状态恢复,作者做了一个强假设,即如果目标因遮挡而丢失,那么在出现的那一帧的数据关联中也没有与之匹配的目标。因此就可以跨帧匹配:
利用时间距离、位置形状、IOU、直方图等信息作为特征,通过 SVM 进行分类判别。
效果如下:
UMA
其中的特征提取都是采用的 AlexNet,从图中可以看到:
对于正样本对则采用 SOT 进行跟踪比对,从而得到 SOT 部分的损失。
对于每个目标样本,还存在一个 embedding 模块,提取了 256 维的特征信息,进而进行 iidentification 的分类任务;
其中第 2 行是跟踪任务中的响应图(网络第一行分支),第 3 行是相似度度量任务中的响应图(网络第三行分支),所以 SOT 的任务跟偏向于定位和周围环境信息的提取,而 Affinity 部分更偏向于前景目标的部位。
这里作者直接通过 affinity 相似度和 IOU 的变化情况估计了遮挡情况。另外,为了保证表观特征部分的信息更准确,作者利用 ROI Align 模块,将特征图上 SOT 预测出来的位置区域的目标特征单独获取出来作为表观特征的输入。
[1] Zhu J, Yang H, Liu N, et al. Online multi-object tracking with dual matching attention networks[C]. in: Proceedings of the European Conference on Computer Vision (ECCV). 2018. 366-382.
[2] Chu P, Ling H. Famnet: Joint learning of feature, affinity and multi-dimensional assignment for online multiple object tracking[C]. in: Proceedings of the IEEE International Conference on Computer Vision. 2019. 6172-6181.
[3] Chu Q, Ouyang W, Li H, et al. Online multi-object tracking using CNN-based single object tracker with spatial-temporal attention mechanism[C]. in: Proceedings of the IEEE International Conference on Computer Vision. 2017. 4836-4845.
[4] Feng W, Hu Z, Wu W, et al. Multi-object tracking with multiple cues and switcher-aware classification[J]. arXiv preprint arXiv:1901.06129, 2019.
[5] Chu P, Fan H, Tan C C, et al. Online multi-object tracking with instance-aware tracker and dynamic model refreshment[C]. in: 2019 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2019. 161-170.
[6] Yin J, Wang W, Meng Q, et al. A Unified Object Motion and Affinity Model for Online Multi-Object Tracking[J]. arXiv preprint arXiv:2003.11291, 2020.
[7] https://zhuanlan.zhihu.com/p/111397247
点击以下标题查看更多往期内容:
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。