Recent studies show that, both explicit deep feature matching as well as large-scale and diverse training data can significantly improve the generalization of person re-identification. However, the efficiency of learning deep matchers on large-scale data has not yet been adequately studied. Though learning with classification parameters or class memory is a popular way, it incurs large memory and computational costs. In contrast, pairwise deep metric learning within mini batches would be a better choice. However, the most popular random sampling method, the well-known PK sampler, is not informative and efficient for deep metric learning. Though online hard example mining has improved the learning efficiency to some extent, the mining in mini batches after random sampling is still limited. This inspires us to explore the use of hard example mining earlier, in the data sampling stage. To do so, in this paper, we propose an efficient mini-batch sampling method, called graph sampling (GS), for large-scale deep metric learning. The basic idea is to build a nearest neighbor relationship graph for all classes at the beginning of each epoch. Then, each mini batch is composed of a randomly selected class and its nearest neighboring classes so as to provide informative and challenging examples for learning. Together with an adapted competitive baseline, we improve the previous state of the art in generalizable person re-identification significantly, by up to 24% in Rank-1 and 13.8% in mAP. Besides, the proposed method also outperforms the competitive baseline by up to 6.2% in Rank-1 and 5.3% in mAP. Meanwhile, the training time is significantly reduced by up to five times, e.g. from 12.2 hours to 2.3 hours when training on a large-scale dataset with 8,000 identities. Code is available at https://github.com/ShengcaiLiao/QAConv.


翻译:最近的研究显示,既明显深层特征匹配,又大规模和多样化的培训数据,都能够显著改善个人再识别的普及程度。然而,在大规模数据中学习深层匹配者的效率尚未充分研究。虽然以分类参数或类记忆学习是一种流行的方式,但需要大量的记忆和计算成本。相比之下,在小型批次中进行双向深层次的深层测试会是一个更好的选择。然而,最受欢迎的随机抽样方法,即著名的PK取样器,并没有为深层次的体格学习提供信息和效率。尽管在线硬实例采矿在某种程度上提高了学习效率,但随机抽样后在小型批次中学习深层匹配者的效率仍然有限。这激励了我们探索在数据取样阶段更早地使用硬实例挖掘工作的效率。为了做到这一点,我们提议了一种高效的小型批次取样方法,称为图表抽样(GS),用于大规模深入的计量学习。基本想法是,在每一类开始时为所有类建立最接近的邻居关系图。随后,每批由随机选择的e-1.8个类到最接近的Sergoal的排序,然后在最接近的排序中进行高层次的排序和最接近的升级的排序的排序的排序中进行升级的模拟培训。我们共同学习,通过了解的排序的排序的排序的排序,以了解情况为基础方法,将获得的顺序的顺序的排序的顺序和最深层次数据,将大大的顺序改进。

0
下载
关闭预览

相关内容

度量学习的目的为了衡量样本之间的相近程度,而这也正是模式识别的核心问题之一。大量的机器学习方法,比如K近邻、支持向量机、径向基函数网络等分类方法以及K-means聚类方法,还有一些基于图的方法,其性能好坏都主要有样本之间的相似度量方法的选择决定。 度量学习通常的目标是使同类样本之间的距离尽可能缩小,不同类样本之间的距离尽可能放大。
【图与几何深度学习】Graph and geometric deep learning,49页ppt
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Hardness-Aware Deep Metric Learning
Arxiv
6+阅读 · 2019年3月13日
Adversarial Metric Attack for Person Re-identification
Arxiv
13+阅读 · 2019年1月26日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
16+阅读 · 2018年4月2日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Top
微信扫码咨询专知VIP会员