持续学习是一种学习模式,在这种模式下,学习系统按照一系列任务进行训练。这里的目标是在当前任务上执行得很好,而不会受到前面任务的性能下降的影响。在神经网络持续学习的最新进展中,有两个值得注意的方向: (1) 基于变分贝叶斯的正则化,通过学习先前任务的先验信息,以及(2)学习深度网络的结构以适应新的任务。到目前为止,这两种方法在很大程度上是相互正交的。我们提出了一个新的贝叶斯框架,基于不断学习深度神经网络的结构,以统一这些不同但互补的方法。该框架通过学习任务所使用的权值来学习任务的深层结构,并通过不同任务学习的权值的不同稀疏子集的重叠来支持任务间的迁移。我们提出的持续学习框架的一个吸引人的方面是,它既适用于甄别(有监督的)设置,也适用于生成(无监督的)设置。在有监督和无监督基准上的实验结果表明,我们的方法在持续学习方面的表现与最近的进展相当或更好。

http://proceedings.mlr.press/v139/kumar21a.html

成为VIP会员查看完整内容
33

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
14+阅读 · 2021年9月25日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
35+阅读 · 2021年8月17日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
38+阅读 · 2021年6月11日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
重新思考图卷积网络:GNN只是一种滤波器
新智元
28+阅读 · 2019年6月3日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
Arxiv
0+阅读 · 2021年11月6日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
8+阅读 · 2020年6月15日
Arxiv
7+阅读 · 2020年3月1日
Arxiv
136+阅读 · 2018年10月8日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
14+阅读 · 2021年9月25日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
35+阅读 · 2021年8月17日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
38+阅读 · 2021年6月11日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
重新思考图卷积网络:GNN只是一种滤波器
新智元
28+阅读 · 2019年6月3日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
相关论文
微信扫码咨询专知VIP会员