Unsupervised person re-identification (ReID) aims at learning discriminative identity features without annotations. Recently, self-supervised contrastive learning has gained increasing attention for its effectiveness in unsupervised representation learning. The main idea of instance contrastive learning is to match a same instance in different augmented views. However, the relationship between different instances of a same identity has not been explored in previous methods, leading to sub-optimal ReID performance. To address this issue, we propose Inter-instance Contrastive Encoding (ICE) that leverages inter-instance pairwise similarity scores to boost previous class-level contrastive ReID methods. We first use pairwise similarity ranking as one-hot hard pseudo labels for hard instance contrast, which aims at reducing intra-class variance. Then, we use similarity scores as soft pseudo labels to enhance the consistency between augmented and original views, which makes our model more robust to augmentation perturbations. Experiments on several large-scale person ReID datasets validate the effectiveness of our proposed unsupervised method ICE, which is competitive with even supervised methods.


翻译:未经监督的人重新身份识别( ReID) 旨在学习没有附加说明的歧视性身份特征。 最近, 自我监督的对比性学习在未经监督的演示学习中提高了对其有效性的关注度。 实例对比性学习的主要理念是在不同扩大的观点中匹配同一实例。 但是, 先前的方法没有探讨同一身份的不同实例之间的关系, 导致次优的 ReID性表现。 为了解决这个问题, 我们提议利用 Internance 相匹配编码(ICE) 来利用 Internance 相近性分数来提升先前的等级对比性 ReID方法。 我们首先将相似性排序配对为用于硬性对比的单热硬假标签, 目的是减少类内部差异。 然后, 我们用类似性评分作为软假标签, 来增强增强增强强化和原始观点的一致性, 这使得我们的模型更加强大到增强性扰动性。 实验了几个大型的人 ReID 数据设置验证了我们提议的未经监督的ICE方法的有效性, 这种方法甚至具有竞争性 。

0
下载
关闭预览

相关内容

【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
77+阅读 · 2020年6月11日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Arxiv
7+阅读 · 2020年8月7日
VIP会员
Top
微信扫码咨询专知VIP会员