【CVPR 2020 Oral】小样本类增量学习

2020 年 6 月 26 日 专知

论文:https://arxiv.org/abs/2004.10956

文章简介

实现对新类别进行持续增量学习的能力对于现实世界人工智能系统的发展至关重要。目前的类增量学习(CIL,class-incremental learning)研究往往提供了较为充足的带标签新类别样本,而在诸如智能相册等实际应用中,用户可能只有兴趣提供极少量有标签的新类别样本。因此研究小样本深度类增量学习迫在眉睫。在本文中,我们着重研究这个面向实际应用但极具挑战性的小样本类增量连续学习(FSCIL,few-shot class-incremental learning)问题。FSCIL要求CNN模型从少量的带标签样本中增量式地学习新的类别,而不会忘记先前学习的样本。

传统的深度类增量学习研究通常使用知识蒸馏(knowledge distillation)方法。它们通常存储一部分旧类别的样本,通过蒸馏损失函数来维持分类模型在旧类别样本上的输出。尽管在某种程度上有效,这种基于蒸馏损失的方法也存在一些问题。首先,其面临严重的类别不平衡问题,即分类器输出会严重偏置(baised)到拥有较多样本的类别上;其次,它们往往面临在新旧类之间进行性能折衷(trade-off)的困境。由于在极少样本情况下,需要认为增大学习率以及增强新类损失的梯度才能使新类别的学习变得有意义,而一旦这样做,对旧类别知识的维持就会更加困难。因此这种性能折衷困境在小样本类增量环境下会更为严重。

为此,我们尝试从一种新的认知启发的角度来解决小样本类增量学习问题。近期的认知学研究表明,物体的拓扑对维持已学知识的记忆非常重要。一旦记忆的拓扑特性发生改变,会导致人类对已见过物体视觉刺激的再认出现大幅退化,这直接导致了灾难性遗忘(catastrophic forgetting)的产生。为此,我们认为,保持住旧知识空间的拓扑结构,是解决灾难性遗忘的关键。因此,我们提出使用神经气体(NG,neural gas)网络来对已学知识进行抽取和表示。该网络可以学习并保留由不同类别形成的特征流形的拓扑。在此基础上,我们提出了拓扑保持知识增长器(TOPIC,TOPology-Preserving Knowledge InCrementer)框架。TOPIC框架一方面通过稳定神经气体网络NG的拓扑结构缓解了旧知识的遗忘,另一方面通过使NG成长并适应新的训练样本来改进在少量新类别样本上的表征学习。

图1 两种异构流形表征方法的比较。(a)传统的CIL研究通常使用随机抽样的表征方法来进行知识蒸馏(knowledge distillation)。(b)通过神经气体学到的流形表征可以较好地保留流形的拓扑。


参考链接:

https://zhuanlan.zhihu.com/p/136823964


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“FSCL” 可以获取《CVPR 2020 Oral小样本类增量学习》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取5000+AI主题知识资源
登录查看更多
16

相关内容

《小样本元学习》2020最新综述论文
专知会员服务
172+阅读 · 2020年7月31日
专知会员服务
50+阅读 · 2020年7月16日
CVPR 2019 | 小样本域适应的目标检测
PaperWeekly
5+阅读 · 2019年10月1日
CVPR 2019 Oral 论文解读 | 无监督域适应语义分割
AI科技评论
49+阅读 · 2019年5月29日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
迁移自适应学习最新综述,附21页论文下载
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年12月5日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Arxiv
8+阅读 · 2018年4月12日
VIP会员
相关论文
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年12月5日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Arxiv
8+阅读 · 2018年4月12日
Top
微信扫码咨询专知VIP会员