This paper tackles the purely unsupervised person re-identification (Re-ID) problem that requires no annotations. Some previous methods adopt clustering techniques to generate pseudo labels and use the produced labels to train Re-ID models progressively. These methods are relatively simple but effective. However, most clustering-based methods take each cluster as a pseudo identity class, neglecting the large intra-ID variance caused mainly by the change of camera views. To address this issue, we propose to split each single cluster into multiple proxies and each proxy represents the instances coming from the same camera. These camera-aware proxies enable us to deal with large intra-ID variance and generate more reliable pseudo labels for learning. Based on the camera-aware proxies, we design both intra- and inter-camera contrastive learning components for our Re-ID model to effectively learn the ID discrimination ability within and across cameras. Meanwhile, a proxy-balanced sampling strategy is also designed, which facilitates our learning further. Extensive experiments on three large-scale Re-ID datasets show that our proposed approach outperforms most unsupervised methods by a significant margin. Especially, on the challenging MSMT17 dataset, we gain $14.3\%$ Rank-1 and $10.2\%$ mAP improvements when compared to the second place. Code is available at: \texttt{https://github.com/Terminator8758/CAP-master}.


翻译:本文处理完全无人监督的人重新身份识别(Re-ID)问题,不需要说明。以前的一些方法采用分组技术,生成假标签,并使用制作的标签逐步培训重新身份识别模型。这些方法相对简单,但有效。然而,大多数基于集群的方法将每个组作为假身份分类,忽略了主要由于相机视图变化造成的大型ID内部差异。为解决这一问题,我们提议将每个单个组分为多个代号,每个代号代表来自同一相机。这些自觉的代号使我们能够处理大型内部差异,并生成更可靠的假标签,以逐步培训重新身份识别模型。这些方法相对相对相对系统而言,我们为重新身份识别模型设计了内部和中间的对比学习组成部分,以有效学习相机内和镜头之间的识别歧视能力。与此同时,我们还设计了一种代称平衡的抽样战略,以方便我们进一步学习。在三个大型的 Re-ID数据集上进行广泛的实验,显示我们所提议的方法比最不精确的代号为58美元/代号,并生成更可靠的假标签。 特别是,在可获取的MS-DR3上,我们获得了最难的代号。

1
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Attention Network Robustification for Person ReID
Arxiv
5+阅读 · 2019年10月15日
Arxiv
3+阅读 · 2018年4月10日
VIP会员
Top
微信扫码咨询专知VIP会员