深度学习模型通常限定在固定数据集中进行训练,训练完成之后模型无法随着时间而扩展其行为. 将已训练好的模型在新数据上训练会出现灾难性遗忘现象. 持续学习是一种能够缓解深度学习模型灾难性遗 忘的机器学习方法,它旨在不断扩展模型的适应能力,让模型能够在不同时刻学习不同任务的知识. 目前,持 续学习算法主要分为 4 大方面,分别是正则化方法、记忆回放方法、参数孤立方法和综合方法. 对这 4 大方面 方法的研究进展进行了系统总结与分析,梳理了衡量持续学习算法性能的评估方法,讨论了持续学习的新兴 研究趋势. http://www.yndxxb.ynu.edu.cn/yndxxbzrkxb/article/doi/10.7540/j.ynu.20220312?viewType=HTML 得益于更大的数据集、更强的计算能力以及 网络结构创新,深度学习在图像分类[1]、人脸识别[2] 等任务上已经实现了接近人类甚至超越人类的性 能. 然而大多数神经网络只能在预先知道所有类的 批量学习设定下进行训练直至拟合,当有新数据出 现时,必须使用全部数据重新训练模型,以适应数 据分布变化[3] . 随着移动设备和互联网的飞速发展, 人们每天都会拍摄和分享大量图片和视频. 而从零 开始重新训练模型是耗时且低效的,这就要求模型 拥有以序列方式进行持续学习和更新的能力,以适 应每天新产生的数据. 神经网络从原来的批量学习模式转变为序列 学习模式时,很容易出现对旧知识的遗忘,这意味 着,在使用新数据更新模型后,模型在先前学习的 任务中所达到的性能会急剧下降[4],出现灾难性遗 忘. 早在 30 多年前,人们就在多层感知器中发现了 灾难性遗忘现象[5],产生灾难性遗忘的根本原因是 新任务训练过程需要改变神经网络权值,这不可避 免地修改了某些对于旧任务来说至关重要的权重, 使得模型不再适用于旧任务. 与此相反,人类可以 不断学习和适应新知识,并且在自身积累新知识的 同时,也会对原有知识进行了补充和修正,学习新 知识很少会导致人类灾难性地忘记之前的知识[6] . 如自然视觉系统,先前的知识得到了保留的同时, 新的视觉信息被不断地整合到已有知识中. 为了克服灾难性遗忘,学习系统一方面要在新 任务上表现出获取新知识和提炼现有知识的能力, 另一方面要防止新任务对现有知识的显著干扰. 持 续学习,也称为终身学习,它建立在不断学习外部 世界的想法之上,神经网络通过持续学习算法能够 渐进地学习新知识,并且保留过去学习的内容. 近 年来,如图 1 所示,持续学习在计算机视觉领域获 得了蓬勃发展,同时各单位也如火如荼开展着持续 学习的相关比赛[7] . 鉴于持续学习深刻的应用场景 和该领域飞速的发展,本文对持续学习的研究工作 进行综述,从而帮助读者掌握持续学习研究的最新 趋势.

成为VIP会员查看完整内容
74

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
深度学习中知识蒸馏研究综述
专知会员服务
105+阅读 · 2022年8月13日
前沿综述:集体智能与深度学习的交叉进展
专知会员服务
70+阅读 · 2022年2月6日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
70+阅读 · 2021年9月25日
专知会员服务
43+阅读 · 2021年5月19日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
「深度学习中知识蒸馏」最新2022研究综述
最新《神经数据压缩导论》综述
专知
3+阅读 · 2022年7月19日
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
迁移自适应学习最新综述,附21页论文下载
基于深度学习的NLP 32页最新进展综述,190篇参考文献
人工智能学家
27+阅读 · 2018年12月4日
深度学习综述(下载PDF版)
机器学习算法与Python学习
27+阅读 · 2018年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
37+阅读 · 2021年9月28日
Arxiv
102+阅读 · 2021年6月8日
Arxiv
54+阅读 · 2021年5月3日
Arxiv
38+阅读 · 2020年12月2日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
31+阅读 · 2018年11月13日
Arxiv
15+阅读 · 2018年2月4日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
深度学习中知识蒸馏研究综述
专知会员服务
105+阅读 · 2022年8月13日
前沿综述:集体智能与深度学习的交叉进展
专知会员服务
70+阅读 · 2022年2月6日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
70+阅读 · 2021年9月25日
专知会员服务
43+阅读 · 2021年5月19日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
相关资讯
「深度学习中知识蒸馏」最新2022研究综述
最新《神经数据压缩导论》综述
专知
3+阅读 · 2022年7月19日
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
迁移自适应学习最新综述,附21页论文下载
基于深度学习的NLP 32页最新进展综述,190篇参考文献
人工智能学家
27+阅读 · 2018年12月4日
深度学习综述(下载PDF版)
机器学习算法与Python学习
27+阅读 · 2018年7月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
37+阅读 · 2021年9月28日
Arxiv
102+阅读 · 2021年6月8日
Arxiv
54+阅读 · 2021年5月3日
Arxiv
38+阅读 · 2020年12月2日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
31+阅读 · 2018年11月13日
Arxiv
15+阅读 · 2018年2月4日
Arxiv
25+阅读 · 2018年1月24日
微信扫码咨询专知VIP会员