Most existing cross-modality person re-identification works rely on discriminative modality-shared features for reducing cross-modality variations and intra-modality variations. Despite some initial success, such modality-shared appearance features cannot capture enough modality-invariant discriminative information due to a massive discrepancy between RGB and infrared images. To address this issue, on the top of appearance features, we further capture the modality-invariant relations among different person parts (referred to as modality-invariant relation features), which are the complement to those modality-shared appearance features and help to identify persons with similar appearances but different body shapes. To this end, a Multi-level Two-streamed Modality-shared Feature Extraction (MTMFE) sub-network is designed, where the modality-shared appearance features and modality-invariant relation features are first extracted in a shared 2D feature space and a shared 3D feature space, respectively. The two features are then fused into the final modality-shared features such that both cross-modality variations and intra-modality variations can be reduced. Besides, a novel cross-modality quadruplet loss is proposed to further reduce the cross-modality variations. Experimental results on several benchmark datasets demonstrate that our proposed method exceeds state-of-the-art algorithms by a noticeable margin.


翻译:现有大多数交叉式个人再身份鉴定工作依靠歧视性模式共享特征,以减少跨式模式差异和内部模式差异。尽管这些模式共享外观特征在最初取得一些成功,但由于RGB和红外图像之间存在巨大差异,这种模式共享外观特征无法捕捉足够的模式差异性歧视信息。为了解决这一问题,在外观特征的顶端,我们进一步捕捉不同个人部分(称为模式与差异性关系特征)之间的模式-差异性关系,这些特征是模式共享外观特征的补充,有助于识别有类似外观但体形不同的人。为此,设计了一个多层次双流模式共享地貌共享地貌提取(MTMMFE)子网络,其中模式共享的外观特征和模式差异性关系特征首先在共享的 2D 地貌空间和共享的3D 地貌空间中提取。然后将这两个特征整合为模式共享性最终模式共享特征,使跨式外观变化和内部体形变形人得以识别。此外,还设计了一个新型的跨式模式共享模式共享模式共享模式共享地段共享法系(MTMMMFL)分法系(M)分解(MFL)分法式)分解(G)分解(MLV)分解(G)分解(MOL)分解(ML)分解(ML)分解(MF)分解(B)分解)分解(B)分解(MF)分解(M)分解(B)分解(MF),以新的)法(G)法(MLVF)法(MLVF)法(M)法(MF)法(MF)法(MF)法(ML)法(M)法(M)法(ML)法(M)法(M)法(M)法(M)法(MF)法(M)法(M)法(M)法(M)法(M)法(MF)法(MF)法(MF)法(MF)法(M)法(M)法(M)法(M)法(M)(M)(M)(M)(MF)(M)(M)(M)(M)(M)(MF)

0
下载
关闭预览

相关内容

Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
9+阅读 · 2018年3月10日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员