少样本增量类学习(FSCIL)是一项要求模型在只给出每个类的少数样本时递增地学习新类别而不遗忘的任务。FSCIL 面临两个重大挑战:灾难性遗忘和过拟合,这些挑战推动了以往研究主要依赖于浅层模型,如 ResNet-18。尽管它们有限的容量可以减轻遗忘和过拟合问题,但它导致在少次增量会话期间知识转移不足。在本文中,我们认为在大型数据集上预训练的大型模型,如视觉和语言变换器,可以是出色的少样本增量学习者。为此,我们提出了一种名为 PriViLege 的新型 FSCIL 框架,即带有提示功能和知识蒸馏的预训练视觉和语言变换器。我们的框架通过新的预训练知识调整(PKT)和两种损失:基于熵的散度损失和语义知识蒸馏损失,有效地解决了大型模型中的灾难性遗忘和过拟合挑战。实验结果表明,提出的 PriViLege 框架显著优于现有的最先进方法,例如,在 CUB200 中提高了9.38%,在 CIFAR-100 中提高了20.58%,在 miniImageNet 中提高了13.36%。我们的实现代码可在以下链接获取:https://github.com/KHU-AGI/PriViLege。

成为VIP会员查看完整内容
19

相关内容

【AAAI2023】类增量学习的在线超参数优化
专知会员服务
19+阅读 · 2023年1月18日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
39+阅读 · 2022年4月15日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
21+阅读 · 2021年11月29日
专知会员服务
37+阅读 · 2021年6月19日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
61+阅读 · 2021年4月21日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
19+阅读 · 2023年1月18日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
39+阅读 · 2022年4月15日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
21+阅读 · 2021年11月29日
专知会员服务
37+阅读 · 2021年6月19日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
61+阅读 · 2021年4月21日
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
微信扫码咨询专知VIP会员