类增量学习(class incremental learning, CIL)旨在在类别数量逐步增加的情况下训练分类模型。CIL模型面临的一个内在挑战是稳定性与可塑性的权衡,即CIL模型既要保持稳定性以保留旧知识,又要保持可塑性以吸收新知识。然而,现有的CIL模型都不能在不同的数据接收设置中实现最佳权衡——通常,从一半开始训练(TFH)设置需要更大的稳定性,但从头开始训练(TFS)需要更大的可塑性**。设计了一种在线学习方法,可以在不知道先验设置的情况下自适应地优化权衡。**首先引入了影响权衡的关键超参数,例如知识蒸馏(KD)损失权重、学习率和分类器类型。然后,将超参数优化过程建模为一个在线马尔可夫决策过程(MDP)问题,并提出了一种具体的算法来求解该问题。本文采用局部估计奖励和经典bandit算法Exp3[4]来解决将在线MDP方法应用于CIL协议时存在的问题。所提出方法在TFH和TFS设置中不断改进表现最好的CIL方法,例如,与最先进的[23]相比,在ImageNet-Full上将TFH和TFS的平均精度提高了2.2个百分点。

https://www.zhuanzhi.ai/paper/1aa5db12a9fd06a275ad0b6e89be62bb

成为VIP会员查看完整内容
19

相关内容

【CMU博士论文】黑盒和多目标优化策略,151页pdf
专知会员服务
49+阅读 · 2022年11月24日
【AAAI2022】多任务推荐中的跨任务知识提炼
专知会员服务
24+阅读 · 2022年2月22日
专知会员服务
22+阅读 · 2021年9月30日
专知会员服务
30+阅读 · 2021年7月19日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
专知会员服务
16+阅读 · 2020年12月4日
专知会员服务
110+阅读 · 2020年6月26日
【AAAI2023】图序注意力网络
专知
5+阅读 · 2022年11月24日
NeurIPS 2022 | 基于精确差异学习的图自监督学习
PaperWeekly
0+阅读 · 2022年10月22日
【CVPR2022】带噪声标签的少样本学习
专知
1+阅读 · 2022年4月15日
【AAAI2021】对比聚类,Contrastive Clustering
专知
25+阅读 · 2021年1月30日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
26+阅读 · 2019年3月5日
VIP会员
相关VIP内容
【CMU博士论文】黑盒和多目标优化策略,151页pdf
专知会员服务
49+阅读 · 2022年11月24日
【AAAI2022】多任务推荐中的跨任务知识提炼
专知会员服务
24+阅读 · 2022年2月22日
专知会员服务
22+阅读 · 2021年9月30日
专知会员服务
30+阅读 · 2021年7月19日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
专知会员服务
16+阅读 · 2020年12月4日
专知会员服务
110+阅读 · 2020年6月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员