随着时间的推移,当学习任务时,人工神经网络会遇到一个被称为“灾难性遗忘”(CF)的问题。当网络的权值在训练新任务时被覆盖,导致旧信息的遗忘时,就会发生这种情况。为了解决这个问题,我们提出了MetA可重用知识(MetA Reusable Knowledge)或MARK,这是一种新的方法,可以在学习新任务时促进权重可重用性,而不是覆盖。具体来说,MARK在任务之间保持了一组共享权重。我们将这些共享权重设想为一个公共知识库(KB),该知识库不仅用于学习新任务,而且在模型学习新任务时还包含新知识。MARK背后的关键组件有两个方面。一方面,元学习方法提供了用新知识逐步丰富知识库和促进任务间权重重用的关键机制。另一方面,一组可训练掩码提供了从知识库中选择性地选择相关权值来解决每个任务的关键机制。通过使用MARK,我们在几个流行的基准测试中获得了最先进的结果,在20-Split-MiniImageNet数据集上的平均准确率超过了最好的方法10%,同时使用55%的参数实现了几乎零遗忘。此外,一项消融研究提供了证据,确实,MARK正在学习可重复使用的知识,这些知识被每个任务选择性地使用。

https://www.zhuanzhi.ai/paper/89cb66846a530b677239d3342e987185

成为VIP会员查看完整内容
22

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
64+阅读 · 2021年7月25日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
专知会员服务
23+阅读 · 2020年12月16日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【DeepMind-NeurIPS 2020】元训练代理实现Bayes-optimal代理
专知会员服务
11+阅读 · 2020年11月1日
专知会员服务
45+阅读 · 2020年10月22日
专知会员服务
32+阅读 · 2020年10月2日
【基于元学习的推荐系统】5篇相关论文
专知
10+阅读 · 2020年1月20日
通过机器学习让医疗数据更好用
谷歌开发者
3+阅读 · 2018年7月10日
当前训练神经网络最快的方式:AdamW优化算法+超级收敛
中国人工智能学会
6+阅读 · 2018年7月4日
观点|元学习:实现通用人工智能的关键!
AI科技评论
8+阅读 · 2017年8月21日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
4+阅读 · 2018年11月26日
Embedding Logical Queries on Knowledge Graphs
Arxiv
5+阅读 · 2018年9月6日
VIP会员
相关VIP内容
专知会员服务
64+阅读 · 2021年7月25日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
专知会员服务
23+阅读 · 2020年12月16日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【DeepMind-NeurIPS 2020】元训练代理实现Bayes-optimal代理
专知会员服务
11+阅读 · 2020年11月1日
专知会员服务
45+阅读 · 2020年10月22日
专知会员服务
32+阅读 · 2020年10月2日
微信扫码咨询专知VIP会员