Video-based person re-identification (re-ID) is an important research topic in computer vision. The key to tackling the challenging task is to exploit both spatial and temporal clues in video sequences. In this work, we propose a novel graph-based framework, namely Multi-Granular Hypergraph (MGH), to pursue better representational capabilities by modeling spatiotemporal dependencies in terms of multiple granularities. Specifically, hypergraphs with different spatial granularities are constructed using various levels of part-based features across the video sequence. In each hypergraph, different temporal granularities are captured by hyperedges that connect a set of graph nodes (i.e., part-based features) across different temporal ranges. Two critical issues (misalignment and occlusion) are explicitly addressed by the proposed hypergraph propagation and feature aggregation schemes. Finally, we further enhance the overall video representation by learning more diversified graph-level representations of multiple granularities based on mutual information minimization. Extensive experiments on three widely adopted benchmarks clearly demonstrate the effectiveness of the proposed framework. Notably, 90.0% top-1 accuracy on MARS is achieved using MGH, outperforming the state-of-the-arts. Code is available at https://github.com/daodaofr/hypergraph_reid.


翻译:以视频为基础的个人再识别(re-ID)是计算机愿景中的一个重要研究课题。应对挑战任务的关键在于利用视频序列中的空间和时间线索。在这项工作中,我们提议了一个基于图表的新框架,即多面体高光谱(MGH),通过模拟多颗粒的超光谱和特征汇总计划,追求更好的代表性能力。具体地说,具有不同空间颗粒的高光谱是利用不同视频序列中不同层次的半面体特征构建的。在每部高光谱中,不同的时间颗粒被连接不同时间范围的一组图表节点(即部分特征)的超镜所捕捉取。两个关键问题(误相和封闭性)由拟议的超光谱传播和特征汇总计划明确解决。最后,我们通过学习基于相互信息最小化的多个颗粒的更多样化的图形层次表现来进一步加强总体的视频代表性。在三种广泛采用的基准上进行广泛的实验,清楚地展示了拟议框架的实效。在MARS/FRODS/MARDS/MGS/FRODSADSDSDADRADRADRADRDRDRDRDRDSDRDRDRDRDRDRDRDRDSDRDRDRDRDRDRDSDSDRDRDRDRDRDRDRDRDS/MGMGMGMGDSDS/MGMGDS/MGMGDS/MDRDRDSDSDSDSDSDSDRDRDSDSDRDRDSDSDSDSDSDRDSDSDSDSDSDSDSDSDSDSDRDRDRDSDSDSDRDRDRDSDSDSDGGGGGGDSDGDSDRDRDRDSDSDRDSDRDRDRDDDRDDSDDDDS/MDRDRDSDSDSDSDDDDDDDADADADADADADADMDMDD

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Graph Transformer for Graph-to-Sequence Learning
Arxiv
4+阅读 · 2019年11月30日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
相关资讯
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员