持续学习和适应新任务的能力,同时又不失去对已经获得的知识的掌握,是生物学习系统的一个特征,这是目前的深度学习系统所欠缺的。在这项工作中,我们提出了一种新的持续学习方法,称为MERLIN:持续学习的元巩固。

我们假设一个用于解决任务t的神经网络的权值是来自于一个元分布p(lenian| t)。这种元分布是逐步学习和巩固的。我们在具有挑战性的在线持续学习设置中操作,其中一个数据点只被模型看到一次。

我们对MNIST、CIFAR-10、CIFAR-100和Mini-ImageNet数据集的持续学习基准进行的实验显示,在五个基线上,包括最近的最先进水平,都证明了MERLIN的前景。

https://arxiv.org/abs/2010.00352

成为VIP会员查看完整内容
32

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
【Alma Mate博士论文】深度架构持续学习,附150页pdf与Slides
专知会员服务
44+阅读 · 2020年11月18日
专知会员服务
9+阅读 · 2020年11月12日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020】可处理的反事实推理的深度结构因果模型
专知会员服务
47+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
元强化学习迎来一盆冷水:不比元Q学习好多少
AI科技评论
12+阅读 · 2020年2月27日
已删除
将门创投
6+阅读 · 2019年4月10日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
无需一行代码就能搞定机器学习的开源神器
人工智能头条
6+阅读 · 2017年11月7日
Arxiv
4+阅读 · 2019年11月25日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
4+阅读 · 2019年4月3日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关VIP内容
【Alma Mate博士论文】深度架构持续学习,附150页pdf与Slides
专知会员服务
44+阅读 · 2020年11月18日
专知会员服务
9+阅读 · 2020年11月12日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020】可处理的反事实推理的深度结构因果模型
专知会员服务
47+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
相关资讯
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
元强化学习迎来一盆冷水:不比元Q学习好多少
AI科技评论
12+阅读 · 2020年2月27日
已删除
将门创投
6+阅读 · 2019年4月10日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
无需一行代码就能搞定机器学习的开源神器
人工智能头条
6+阅读 · 2017年11月7日
相关论文
Arxiv
4+阅读 · 2019年11月25日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
4+阅读 · 2019年4月3日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
10+阅读 · 2018年3月23日
微信扫码咨询专知VIP会员