人类一生都在学习。他们从一系列的学习经验中积累知识,记住基本概念,但不会忘记之前所学的知识。同样,人工神经网络也在努力学习。他们通常依赖于经过严格预处理的数据来学习特定问题的解决方案,如分类或回归。特别是,如果接受新的训练,他们会忘记过去的学习经验。因此,人工神经网络通常不能处理现实生活中的情况,比如自主机器人必须在线学习以适应新情况并克服新问题,而不忘记过去的学习经验。持续学习(CL)是机器学习的一个分支,解决了这类问题。持续算法的设计目的是在不遗忘的学习经验课程中积累和提高知识。在本论文中,我们提出探索具有重放过程的持续算法。重播过程集中了预演方法和生成重播方法。生成式再现是通过生成式模型来记忆过去的学习经验。排练包括从过去的学习经验中保存一组核心样本,以便以后进行排练。回放过程使优化当前学习目标和过去学习目标之间的折衷成为可能,从而在任务设置序列中实现不遗忘的学习。我们表明它们是非常有前途的持续学习方法。值得注意的是,它们能够用新的知识重新评价过去的数据,并从不同的学习经验中对抗数据。我们展示了他们通过无监督学习、监督学习和强化学习任务持续学习的能力。