人类一生都在学习。他们从一系列的学习经验中积累知识,记住基本概念,但不会忘记之前所学的知识。同样,人工神经网络也在努力学习。他们通常依赖于经过严格预处理的数据来学习特定问题的解决方案,如分类或回归。特别是,如果接受新的训练,他们会忘记过去的学习经验。因此,人工神经网络通常不能处理现实生活中的情况,比如自主机器人必须在线学习以适应新情况并克服新问题,而不忘记过去的学习经验。持续学习(CL)是机器学习的一个分支,解决了这类问题。持续算法的设计目的是在不遗忘的学习经验课程中积累和提高知识。在本论文中,我们提出探索具有重放过程的持续算法。重播过程集中了预演方法和生成重播方法。生成式再现是通过生成式模型来记忆过去的学习经验。排练包括从过去的学习经验中保存一组核心样本,以便以后进行排练。回放过程使优化当前学习目标和过去学习目标之间的折衷成为可能,从而在任务设置序列中实现不遗忘的学习。我们表明它们是非常有前途的持续学习方法。值得注意的是,它们能够用新的知识重新评价过去的数据,并从不同的学习经验中对抗数据。我们展示了他们通过无监督学习、监督学习和强化学习任务持续学习的能力。

成为VIP会员查看完整内容
33

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【多伦多大学博士论文】深度学习中的训练效率和鲁棒性
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
125+阅读 · 2022年1月16日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
72+阅读 · 2021年9月25日
专知会员服务
74+阅读 · 2021年7月21日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【Alma Mate博士论文】深度架构持续学习,附150页pdf与Slides
专知会员服务
44+阅读 · 2020年11月18日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
深度学习中的“不确定性基线”
TensorFlow
5+阅读 · 2021年12月7日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年6月27日
Arxiv
12+阅读 · 2022年4月12日
Arxiv
22+阅读 · 2021年12月19日
Arxiv
12+阅读 · 2021年8月19日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
126+阅读 · 2020年9月6日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
【多伦多大学博士论文】深度学习中的训练效率和鲁棒性
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
125+阅读 · 2022年1月16日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
72+阅读 · 2021年9月25日
专知会员服务
74+阅读 · 2021年7月21日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【Alma Mate博士论文】深度架构持续学习,附150页pdf与Slides
专知会员服务
44+阅读 · 2020年11月18日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年6月27日
Arxiv
12+阅读 · 2022年4月12日
Arxiv
22+阅读 · 2021年12月19日
Arxiv
12+阅读 · 2021年8月19日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
126+阅读 · 2020年9月6日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
25+阅读 · 2018年1月24日
微信扫码咨询专知VIP会员