【速览】ECCV 2022 | 反倒摄抑制的终身学习

2022 年 8 月 31 日 中国图象图形学学会CSIG
   


















会“成果速览”系列文章旨在将图像图形领域会议期刊重要成果进行传播,通过短篇文章让读者用母语快速了解相关学术动态,欢迎关注和投稿~











◆ ◆ ◆ ◆

ECCV 2022:反倒摄抑制的终身学习

Runqi Wang   , Yuxiang Bao   , Baochang Zhang    , Jianzhuang Liu   , Wentao Zhu   , Guodong Guo   
   北京航空航天大学,    华为诺亚方舟实验室   快手科技,   百度深度学习研究院
ECCV 2022
撰稿人:鲍宇翔

*通讯作者:Baochang Zhang

推荐理事:林宙辰
原文标题:Anti-Retroactive Interference for Lifelong Learning
原文链接:https://arxiv.org/abs/2208.12967
论文代码:https://github.com/bhrqw/ARI









◆ ◆ ◆ ◆


摘要

人类可以不断地学习新知识。然而,机器学习模型在学习新任务后对于先前任务表现会急剧下降。相似知识的竞争是导致遗忘的重要原因。在本文中,我们为终身学习设计了一种基于大脑的联想机制和的元学习的范式。它从提取知识和记忆知识这两个方面解决终身学习问题。首先,我们通过对背景攻击扰乱样本的背景分布,从而加强模型提取每个任务关键特征的能力。其次,根据增量知识和基础知识的相似性,我们设计了一个自适应的对增量知识的融合策略,这有助于模型将容量分配给不同困难程度的知识。我们从理论上分析了我们提出的学习范式可以使不同任务的模型收敛到同一个最优值。所提出的方法在MNIST、CIFAR100、CUB200和ImageNet100数据集进行了验证。

图 1 在终身学习中,现阶段的知识与以前的记忆竞争并造成干扰,尤其是当知识是相似的情况下。因此,我们在攻击两个任务中相似的内容以改变数据分布,避免倒摄抑制。

为了解决深度学习模型在学习新事物过程中的遗忘问题,我们提出了一种基于元学习和联想学习的终身学习的范式。我们将模型分为两个阶段:提取类内特征并融合类间特征。在第一阶段,我们希望通过减少旧知识和新知识之间的竞争来避免倒摄抑制。我们需要准确地抓住新任务的关键知识并专注于学习它,这可以有效地避免知识的混乱。为了实现这个想法,我们设计了一种基于联想学习的背景攻击方法。首先,模型会对干净图像进行学习,通过空间注意力机制,可以得到图像的重要性图。我们对非关键区域(即背景)进行对抗性攻击并扰动这些区域的数据分布。然后,模型会继续学习攻击后的图片,从而削弱对不重要信息的学习。背景攻击的公式如下所示,x表示干净图像,   表示对抗样本,B表示对背景的选择,sgn表示符号函数。通过联想干净样本x和它的背景对抗样本   ,模型可以对背景的分布偏移更加鲁棒从而更关注前景。

在第二阶段,我们将现有模型与刚刚的学到的模型结合起来。它不同于直接更新预训练模型的传统的增量学习方式,因为那样很容易造成遗忘。因此,我们将要学习的知识组织成不同的任务。每个任务都是单独学习的,并且各输出单独的模型。最后我们提出了一种针对任务的模型融合方法,能够保障不同任务所对应的模型能够收敛到一个公共的最优模型以减少信息损失。

图 2 模型融合过程(以任务3为例)。可以分为3个阶段,在第1阶段,基于保存的过去任务的少量样本以及当前任务的全体样本训练针对各个任务的模型。在第2阶段,进行模型的融合。在第3阶段,对融合的模型进行元训练,获得任务3的增量基模型。

具体而言,模型融合的结果可以表示为

其中,   ,   表示   和   模型之间的权重曼哈顿距离归一化后的结果作为模型融合的权重。因为在模型融合的过程中基模型要尽可能地吸收针对不同任务模型的知识,因此与基模型有更大差异的模型要赋予给更多的权重。

通过增加超参   可以控制学习新知识的速度。越大的   可以让模型偏向于学习新知识,反之亦然。

我们在MNIST、CIFAR100、CUB200和ImageNet100数据集上验证了算法的性能。

图 3 MNIST数据集平均分类准确率

图 4 CUB200数据集平均分类准确率

在CIFAR100数据集上,我们采用ResNet-18 (1 /3 )模型,设置保存图片的总数量为2000,分别比较了平均准确率,BWT以及FWT[1],结果如下表所示。

表 1 CIFAR100数据集上平均准确率的比较。任务t的准确率表示从任务1到t的平均准确率

表 2 CIFAR100数据集上不同方法的BWT和FWT的比较

在平均准确率有着明显提升的情况下,ARI有着较低的BWT以及更高的FWT。

表 3 ImagNet100数据集上的结果比较

我们还进行了一系列消融实验验证我们的方法。为了证明相似的背景会导致遗忘,我们构建了一个仅有10个类别的数据集,每个类别含有100张训练和50张测试图片,在实验组中,我们更改训练图片成相近的的背景,测试图片不做修改,对照组采用未做修改的原始图片。我们构建了5个任务,每个任务2个类的增量学习任务。我们衡量了模型学习完全部任务后的平均准确率和BWT,发现相似的背景特征会导致遗忘。

图 5 相似的特征会导致遗忘

为了验证背景攻击以及模型自适应融合的有效性,我们在原始方法上依次增加背景攻击以及模型自适应融合,发现模型在学习完全部任务后对所有任务的准确率上都有着一定的提升。同时,我们绘制了模型自适应融合前针对不同任务的模型和基模型之间的距离,发现随着训练过程的进行,距离逐渐收敛到0。说明通过我们的融合策略,可以让针对不同任务的模型收敛到公共的最优点,从而缓解了模型融合过程中的信息损失。

图 6 在CIFAR100数据集上,模型在学习完全部任务后对所有任务进行测试的准确率。Baseline为相同的模型不进行背景攻击以及采用算数平均的融合方式。

图 7 在CUB200数据集上,针对不同任务的模型和基模型之间的距离。

结论
我们基于联想学习和元学习设计了一种终身学习的方法。通过对背景进行攻击可以帮助模型学习到关键特征并且避免倒摄抑制。通过衡量模型间的距离进行自适应的融合可以使模型收敛到适合于各个任务的公共最优点。在ImageNet100, CUB200, CIFAR100, 以及MNIST数据集实验验证了方法的有效性。
参考文献

[1] Lopez-Paz, D., Ranzato, M.: Gradient episodic memory for continual learning. In:NeurIPS (2017)





中国图象图形学学会2022年度系列奖励推荐工作启动
中国图象图形学学会科普活动、素材征集通知
中国图象图形学学会高校志愿者招募
中国图象图形学学会关于组织开展科技成果鉴定的通知

2022年CSIG图像图形中国行承办方征集中


登录查看更多
0

相关内容

【AAAI2023】终身嵌入学习和迁移的知识图谱增长
专知会员服务
19+阅读 · 2022年12月1日
专知会员服务
61+阅读 · 2021年3月12日
专知会员服务
23+阅读 · 2020年12月16日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
【速览】ECCV 2022 | 针对二值神经网络的循环双线性优化
中国图象图形学学会CSIG
0+阅读 · 2022年9月23日
【速览】IJCV 2022 | 自适应干扰解耦学习的人脸表情识别方法(ADDL)
中国图象图形学学会CSIG
6+阅读 · 2022年2月15日
【速览】IJCV 2021| 基于贝叶斯学习的紧凑1比特卷积神经网络(BONN)
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
【速览】ICCV 2021丨Oriented R-CNN:有向目标检测
中国图象图形学学会CSIG
0+阅读 · 2021年8月25日
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
18+阅读 · 2021年3月16日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Arxiv
22+阅读 · 2019年11月24日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员