In this paper, we propose a novel feature learning framework for video person re-identification (re-ID). The proposed framework largely aims to exploit the adequate temporal information of video sequences and tackle the poor spatial alignment of moving pedestrians. More specifically, for exploiting the temporal information, we design a temporal residual learning (TRL) module to simultaneously extract the generic and specific features of consecutive frames. The TRL module is equipped with two bi-directional LSTM (BiLSTM), which are respectively responsible to describe a moving person in different aspects, providing complementary information for better feature representations. To deal with the poor spatial alignment in video re-ID datasets, we propose a spatial-temporal transformer network (ST^2N) module. Transformation parameters in the ST^2N module are learned by leveraging the high-level semantic information of the current frame as well as the temporal context knowledge from other frames. The proposed ST^2N module with less learnable parameters allows effective person alignments under significant appearance changes. Extensive experimental results on the large-scale MARS, PRID2011, ILIDS-VID and SDU-VID datasets demonstrate that the proposed method achieves consistently superior performance and outperforms most of the very recent state-of-the-art methods.


翻译:在本文中,我们提议为视频人重新识别(re-ID)提供一个新型特征学习框架。拟议框架主要旨在利用视频序列的适当时间信息,并解决移动行人空间调整差的问题。更具体地说,为利用时间信息,我们设计了一个时间剩余学习模块,以同时提取连续框架的通用和具体特征。TRL模块配备了两个双向LSTM双向LSTM(BILSTM),它们分别负责描述移动人员的不同方面,为更好地显示特征提供补充信息。为处理视频重置数据集空间调整差的问题,我们建议建立一个空间时空变异器网络(ST%2N)模块。ST%2N模块的转换参数是通过利用当前框架的高级别语义信息以及其他框架的时间背景知识来学习的。拟议的ST%2N模块具有不易学参数,允许在显著的外观变化下对人进行有效的调整。在大型 MARS、PRID2011、IDS-VID和SDV-PER 模块模块中,大规模的实验结果显示最新的高级性表现方法。

5
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
VIP会员
Top
微信扫码咨询专知VIP会员