Biological agents are known to learn many different tasks over the course of their lives, and to be able to revisit previous tasks and behaviors with little to no loss in performance. In contrast, artificial agents are prone to 'catastrophic forgetting' whereby performance on previous tasks deteriorates rapidly as new ones are acquired. This shortcoming has recently been addressed using methods that encourage parameters to stay close to those used for previous tasks. This can be done by (i) using specific parameter regularizers that map out suitable destinations in parameter space, or (ii) guiding the optimization journey by projecting gradients into subspaces that do not interfere with previous tasks. However, parameter regularization has been shown to be relatively ineffective in recurrent neural networks (RNNs), a setting relevant to the study of neural dynamics supporting biological continual learning. Similarly, projection based methods can reach capacity and fail to learn any further as the number of tasks increases. To address these limitations, we propose Natural Continual Learning (NCL), a new method that unifies weight regularization and projected gradient descent. NCL uses Bayesian weight regularization to encourage good performance on all tasks at convergence and combines this with gradient projections designed to prevent catastrophic forgetting during optimization. NCL formalizes gradient projection as a trust region algorithm based on the Fisher information metric, and achieves scalability via a novel Kronecker-factored approximation strategy. Our method outperforms both standard weight regularization techniques and projection based approaches when applied to continual learning problems in RNNs. The trained networks evolve task-specific dynamics that are strongly preserved as new tasks are learned, similar to experimental findings in biological circuits.


翻译:已知生物物剂在生命过程中会学习许多不同的任务,并能重新审视以往的任务和行为,而其性能很少甚至没有损失。相反,人造物剂容易被“灾难性的忘记”而“灾难性的忘记”导致随着新任务获得,先前任务的绩效会随着新任务而迅速恶化。最近,利用鼓励参数与前任务所用参数保持接近的方法解决了这一缺陷。为了消除这些局限性,我们建议采用具体参数规范,在参数空间中绘制适当的目的地,或者(二)通过预测梯度进入不干扰先前任务的子空间来指导优化旅程。然而,在经常性神经网络(RNNN)中,参数的正规化被证明相对无效,而对于支持生物持续学习的神经动态的研究也与此相关。同样,基于预测的方法可以达到能力,但随着任务数量的增加,我们建议采用自然持续学习(NCL)这一新的方法来统一重量正规化和预测梯度。 NCL 使用比重来鼓励所有任务的正常化,在不断的神经力网络中,将经过训练的精确性变压方法结合起来,从而在不断变压的不断变压中,从而防止以不断变压的方法在不断变压中实现。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
49+阅读 · 2021年5月9日
Arxiv
9+阅读 · 2021年3月25日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
11+阅读 · 2020年12月2日
Arxiv
10+阅读 · 2020年11月26日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
49+阅读 · 2021年5月9日
Arxiv
9+阅读 · 2021年3月25日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
11+阅读 · 2020年12月2日
Arxiv
10+阅读 · 2020年11月26日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
6+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员