本文介绍了核持续学习,这是一种简单但有效的持续学习变体,利用核方法的非参数特性来处理灾难性遗忘。我们使用情景记忆单元来存储每个任务的样本子集,以学习基于核岭回归的任务分类器。这并不需要记忆重放,并且系统地避免了分类器中的任务干扰。我们进一步引入变分随机特征来学习每个任务的数据驱动内核。为此,我们将核持续学习表述为一个变分推理问题,其中随机傅里叶基被合并为潜在变量。从每个任务的核心推断出随机傅立叶基上的后验分布。通过这种方式,我们能够针对每个任务生成更多的信息内核,更重要的是,coreset的大小可以减少,以实现更紧凑的记忆,从而在情景记忆的基础上实现更有效的持续学习。对四个基准的广泛评估证明了内核对持续学习的有效性和前景。

https://arxiv.org/abs/2107.05757

成为VIP会员查看完整内容
31

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
专知会员服务
33+阅读 · 2021年9月18日
专知会员服务
14+阅读 · 2021年9月11日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
80+阅读 · 2021年5月10日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
【NeurIPS2019】图变换网络:Graph Transformer Network
Arxiv
13+阅读 · 2021年7月20日
Arxiv
34+阅读 · 2020年1月2日
Arxiv
13+阅读 · 2019年11月14日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
VIP会员
相关VIP内容
专知会员服务
33+阅读 · 2021年9月18日
专知会员服务
14+阅读 · 2021年9月11日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
80+阅读 · 2021年5月10日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
相关论文
Arxiv
13+阅读 · 2021年7月20日
Arxiv
34+阅读 · 2020年1月2日
Arxiv
13+阅读 · 2019年11月14日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
微信扫码咨询专知VIP会员