In this paper, we propose a novel method to learn internal feature representation models that are \textit{compatible} with previously learned ones. Compatible features enable for direct comparison of old and new learned features, allowing them to be used interchangeably over time. This eliminates the need for visual search systems to extract new features for all previously seen images in the gallery-set when sequentially upgrading the representation model. Extracting new features is typically quite expensive or infeasible in the case of very large gallery-sets and/or real time systems (i.e., face-recognition systems, social networks, life-long learning systems, robotics and surveillance systems). Our approach, called Compatible Representations via Stationarity (CoReS), achieves compatibility by encouraging stationarity to the learned representation model without relying on previously learned models. Stationarity allows features' statistical properties not to change under time shift so that the current learned features are inter-operable with the old ones. We evaluate single and sequential multi-model upgrading in growing large-scale training datasets and we show that our method improves the state-of-the-art in achieving compatible features by a large margin. In particular, upgrading ten times with training data taken from CASIA-WebFace and evaluating in Labeled Face in the Wild (LFW), we obtain a 49\% increase in measuring the average number of times compatibility is achieved, which is a 544\% relative improvement over previous state-of-the-art.


翻译:在本文中,我们提出一种新的方法来学习内部特征代表模型,这些模型与以往所学的模型相容。兼容的特征可以直接比较新老和新学到的特征,从而可以随时互换使用。这就消除了视觉搜索系统的需求,以便在按顺序更新展示模型时,为席集中所有先前看到的照片提取新的特征。在大型的席集和/或实时系统(即脸识别系统、社交网络、终身学习系统、机器人和监测系统)中,提取新的特征通常非常昂贵或不可行。兼容性功能可以直接比较旧和新学到的特征。我们称为“CoRES”的方法,通过静态(CERES),鼓励在不依赖以往所学模型的情况下,对所学的演示模型进行静性分析,从而避免时间变化,使当前所学特征与旧的特征相互兼容。我们评价的是大型培训数据集中单一和连续的多模型升级(即脸谱系统识别系统、终身学习系统、长期学习系统、机器人和监测系统),我们显示我们的方法改进了现状的状态,通过稳定(WA-al-al-al-al-al-al-al-lax-la-lax-lax-lax a a lax lax lax lax a lax lax a lax lax lax lax lax lax lax lax lax lax lax la la la la la lax lax lax lax la la la lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax a lax lax lax lax lax lax lax ex lax lax ex la la lax lax lax a ex ex lax lax ex ex ex ex la la lax la la la la

0
下载
关闭预览

相关内容

专知会员服务
107+阅读 · 2020年12月21日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月18日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
5+阅读 · 2020年3月26日
Arxiv
3+阅读 · 2019年8月26日
VIP会员
相关VIP内容
专知会员服务
107+阅读 · 2020年12月21日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员