通过在终身学习中存储旧知识来寻求提醒模型,是缓解灾难性遗忘最有效的方法之一,即在转向新任务时对先前知识的偏差遗忘。然而,在训练新任务时,以往大多数基于预演的旧任务存在不可预测的域偏移问题。这是因为这些方法总是忽略两个重要的因素。首先,新任务和旧任务之间的数据不平衡,使得旧任务的域容易移位。其次,所有任务之间的任务隔离会使领域向不可预测的方向移动;针对不可预测的领域迁移问题,本文提出多领域多任务排练,对新老任务进行并行、平等的训练,打破任务之间的隔离状态。具体地说,提出了一个两级的角裕度损失模型,以促进类内/任务的紧凑性和类间/任务的差异,使模型避免领域混乱。此外,为了进一步解决旧任务的领域转移问题,我们在记忆上提出了一个可选的情景蒸馏损失来锚定每个旧任务的知识。在基准数据集上的实验验证了该方法能够有效地抑制不可预测的领域漂移。

https://www.zhuanzhi.ai/paper/14cea5f6a54c9dafce7141871467aa0d

成为VIP会员查看完整内容
23

相关内容

【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
40+阅读 · 2021年1月9日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【AAAI2021】层次推理图神经网络
专知会员服务
69+阅读 · 2020年12月27日
专知会员服务
108+阅读 · 2020年12月22日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
专知会员服务
29+阅读 · 2020年12月14日
【AAAI2021】利用先验知识对场景图进行分类
专知会员服务
60+阅读 · 2020年12月3日
视觉与听觉相结合的深度跨域情绪识别
PaperWeekly
6+阅读 · 2020年4月24日
迁移自适应学习最新综述,附21页论文下载
干货 | 多任务深度学习的三个经验教训
AI科技评论
5+阅读 · 2019年2月15日
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
论文笔记:多任务相关粒子滤波跟踪器
统计学习与视觉计算组
9+阅读 · 2017年7月7日
Arxiv
0+阅读 · 2021年2月18日
Arxiv
0+阅读 · 2021年2月18日
Arxiv
4+阅读 · 2020年1月17日
Arxiv
20+阅读 · 2019年11月23日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
VIP会员
相关VIP内容
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
40+阅读 · 2021年1月9日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【AAAI2021】层次推理图神经网络
专知会员服务
69+阅读 · 2020年12月27日
专知会员服务
108+阅读 · 2020年12月22日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
专知会员服务
29+阅读 · 2020年12月14日
【AAAI2021】利用先验知识对场景图进行分类
专知会员服务
60+阅读 · 2020年12月3日
相关资讯
视觉与听觉相结合的深度跨域情绪识别
PaperWeekly
6+阅读 · 2020年4月24日
迁移自适应学习最新综述,附21页论文下载
干货 | 多任务深度学习的三个经验教训
AI科技评论
5+阅读 · 2019年2月15日
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
论文笔记:多任务相关粒子滤波跟踪器
统计学习与视觉计算组
9+阅读 · 2017年7月7日
相关论文
微信扫码咨询专知VIP会员