抽象的知识深深根植于许多基于计算机的应用中。从数据中自动获取知识是人工智能的一个重要研究方向。机器学习提供了相应的算法。其中一个研究领域专注于开发受生物启发的学习算法。各自的机器学习方法基于神经学概念,因此它们可以系统地从数据中获取知识并存储它。可以归类为深度学习模型的一类机器学习算法被称为深度神经网络(deep Neural Networks, DNNs)。DNNs由多个人工神经元组成,这些神经元按层排列,通过使用反向传播算法进行训练。这些深度学习方法在从高维数据中推理和存储复杂知识方面表现出惊人的能力。

然而,DNN会受到一个问题的影响,即无法将新知识添加到现有的知识库中。不断积累知识的能力是促进进化的重要因素,因此是发展强大人工智能的先决条件。所谓的“灾难性遗忘”(CF)效应导致DNN在对新数据分布进行几次训练迭代后,立即失去已经派生的知识。只有用过去和新数据的联合数据分布进行昂贵的再训练,才能抽象出整个新知识集。为了抵消这种影响,各种旨在缓解甚至解决CF问题的技术已经并且仍在开发中。这些已发表的CF回避研究通常暗示他们的方法对各种持续学习任务的有效性。本文的研究背景是基于深度学习方法的持续机器学习。第一部分是面向实际应用的评估协议的开发,该协议可以用于研究不同的机器学习模型对协同效应的抑制。在第二部分,综合研究表明,在面向应用的需求下,所研究的模型都不能表现出令人满意的持续学习效果。第三部分提出了一种新的深度学习模型——深度卷积高斯混合模型(deep Convolutional Gaussian Mixture Models, DCGMMs)。DCGMMs建立在无监督高斯混合模型(GMMs)的基础上。GMM不能被认为是深度学习方法,它必须在训练前以数据驱动的方式进行初始化。这些方面限制了GMM在持续学习场景中的使用。

本文提出的训练过程使使用随机梯度下降(SGD)(应用于DNN)来训练GMMs成为可能。集成退火方案解决了数据驱动的初始化问题,这是GMM训练的先决条件。实验证明,新的训练方法在不迭代其缺点的情况下,可以得到与传统方法相当的结果。另一个创新是gmm以层的形式排列,这类似于DNN。将GMM转换为层使其能够与现有层类型相结合,从而构建深层体系结构,从而可以用较少的资源派生出更复杂的知识。在本工作的最后一部分,研究DCGMM模型的持续学习能力。为此,提出一种称为高斯混合重放(GMR)的重放方法。GMR利用DCGMM的功能来描述数据样本的生成和重现。与现有CF回避模型的比较表明,在面向应用的条件下,GMR可以取得类似的持续学习效果。总之,所提出的工作表明,确定的面向应用的需求仍然是“应用”持续学习研究方法的开放问题。此外,新的深度学习模型为许多其他研究领域提供了一个有趣的起点。

成为VIP会员查看完整内容
26

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
持续学习:研究综述
专知会员服务
76+阅读 · 2023年1月30日
【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
81+阅读 · 2022年10月19日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
71+阅读 · 2021年9月25日
【2021新书】面向健康的机器学习与人工智能,428页pdf
专知会员服务
133+阅读 · 2021年5月21日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年4月21日
Arxiv
0+阅读 · 2023年4月20日
Arxiv
0+阅读 · 2023年4月20日
Arxiv
0+阅读 · 2023年4月20日
VIP会员
相关VIP内容
持续学习:研究综述
专知会员服务
76+阅读 · 2023年1月30日
【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
81+阅读 · 2022年10月19日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
71+阅读 · 2021年9月25日
【2021新书】面向健康的机器学习与人工智能,428页pdf
专知会员服务
133+阅读 · 2021年5月21日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员