Unsupervised Person Re-identification (U-ReID) with pseudo labeling recently reaches a competitive performance compared to fully-supervised ReID methods based on modern clustering algorithms. However, such clustering-based scheme becomes computationally prohibitive for large-scale datasets. How to efficiently leverage endless unlabeled data with limited computing resources for better U-ReID is under-explored. In this paper, we make the first attempt to the large-scale U-ReID and propose a "small data for big task" paradigm dubbed Meta Clustering Learning (MCL). MCL only pseudo-labels a subset of the entire unlabeled data via clustering to save computing for the first-phase training. After that, the learned cluster centroids, termed as meta-prototypes in our MCL, are regarded as a proxy annotator to softly annotate the rest unlabeled data for further polishing the model. To alleviate the potential noisy labeling issue in the polishment phase, we enforce two well-designed loss constraints to promise intra-identity consistency and inter-identity strong correlation. For multiple widely-used U-ReID benchmarks, our method significantly saves computational cost while achieving a comparable or even better performance compared to prior works.


翻译:使用假标签的无人监督者再识别( U- ReID), 与基于现代群集算法的完全监督的ReID 方法相比, 近来取得了一种竞争性的性能。 然而, 这种基于集群的机制在计算上变得对大型数据集来说是极其难以使用的。 如何有效地利用有限计算资源的无标签数据来改善 U- ReID 的探索不足。 在本文中, 我们第一次尝试大规模 U- ReID, 并提出“ 大任务小型数据” 模式, 被称作 Meta 集成学习( MMCL ) 。 MCL 仅通过集群来保存第一阶段培训的计算机, 将整个未标有标签的数据的一部分贴上伪标签 。 之后, 学习的集成型机器人, 在我们的MCL 中被称为元件模型, 被视作一个代理说明者, 软化地点注出其余无标签的数据, 以便进一步擦亮模型。 为了减轻在擦亮阶段潜在的噪音标签问题, 我们实施了两个精心设计的损失限制, 以许诺内位一致性和间关系密切的关联性关系。 。 比较之前的UID, 实现多种广泛使用的业绩计算方法, 比较成本 。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
Arxiv
0+阅读 · 2022年1月24日
VIP会员
Top
微信扫码咨询专知VIP会员