In Class-Incremental Learning (CIL) an image classification system is exposed to new classes in each learning session and must be updated incrementally. Methods approaching this problem have updated both the classification head and the feature extractor body at each session of CIL. In this work, we develop a baseline method, First Session Adaptation (FSA), that sheds light on the efficacy of existing CIL approaches and allows us to assess the relative performance contributions from head and body adaption. FSA adapts a pre-trained neural network body only on the first learning session and fixes it thereafter; a head based on linear discriminant analysis (LDA), is then placed on top of the adapted body, allowing exact updates through CIL. FSA is replay-free i.e.~it does not memorize examples from previous sessions of continual learning. To empirically motivate FSA, we first consider a diverse selection of 22 image-classification datasets, evaluating different heads and body adaptation techniques in high/low-shot offline settings. We find that the LDA head performs well and supports CIL out-of-the-box. We also find that Featurewise Layer Modulation (FiLM) adapters are highly effective in the few-shot setting, and full-body adaption in the high-shot setting. Second, we empirically investigate various CIL settings including high-shot CIL and few-shot CIL, including settings that have previously been used in the literature. We show that FSA significantly improves over the state-of-the-art in 15 of the 16 settings considered. FSA with FiLM adapters is especially performant in the few-shot setting. These results indicate that current approaches to continuous body adaptation are not working as expected. Finally, we propose a measure that can be applied to a set of unlabelled inputs which is predictive of the benefits of body adaptation.


翻译:在类增量学习(CIL)中,图像分类系统在每个学习会话中暴露于新类别,并必须逐步更新。处理这个问题的方法是在每个 CIL 会话中更新分类头和特征提取器。在本文中,我们开发了一种基线方法,即第一次会话适应(FSA),它可以揭示现有 CIL 方法的效力,并允许评估对头和特征提取器对学习的相对性能贡献。FSA 只适应预训练好的神经网络特征提取器,而分类头采用线性判别分析(LDA)构建,允许通过 CIL 进行精准更新。FSA 无需重放,即不记录上一个持续学习会话的示例。为了说明 FSA 的优点,我们首先考虑了22个图像分类数据集,评估了不同的头和特征适应技术在高/低抽样离线设置中的性能表现。我们发现 LDA 头表现良好,并支持开箱即用的 CIL。我们还发现,少量样本情况下,特征层调制(FiLM)适配器非常有效,高样本情况下全身适应较为有效。其次,我们对各种 CIL 设置进行实证研究,包括高样本 CIL 和少量样本 CIL,包括之前文献中使用的设置。我们发现,在考虑的16个设置中,FSA 对14个 CIL 设置都有显着的改善。FiLM 适配器的 FSA 在少量样本情况下表现尤其出色。这些结果表明目前的连续体适应方法不能像预期的那样有效。最后,我们提出一种可应用于一组未标记输入的度量标准,该标准可以预测身体适应的好处。

0
下载
关闭预览

相关内容

【AAAI2023】类增量学习的在线超参数优化
专知会员服务
18+阅读 · 2023年1月18日
Artificial Intelligence: Ready to Ride the Wave? BCG 28页PPT
专知会员服务
26+阅读 · 2022年2月20日
专知会员服务
18+阅读 · 2021年9月16日
专知会员服务
31+阅读 · 2021年7月15日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
ACL 2022 | 类增量学习的少样本命名实体识别
PaperWeekly
1+阅读 · 2022年8月30日
浅聊对比学习(Contrastive Learning)第一弹
PaperWeekly
0+阅读 · 2022年6月10日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员