The goal of continual learning (CL) is to learn a sequence of tasks without suffering from the phenomenon of catastrophic forgetting. Previous work has shown that leveraging memory in the form of a replay buffer can reduce performance degradation on prior tasks. We hypothesize that forgetting can be further reduced when the model is encouraged to remember the \textit{evidence} for previously made decisions. As a first step towards exploring this hypothesis, we propose a simple novel training paradigm, called Remembering for the Right Reasons (RRR), that additionally stores visual model explanations for each example in the buffer and ensures the model has "the right reasons" for its predictions by encouraging its explanations to remain consistent with those used to make decisions at training time. Without this constraint, there is a drift in explanations and increase in forgetting as conventional continual learning algorithms learn new tasks. We demonstrate how RRR can be easily added to any memory or regularization-based approach and results in reduced forgetting, and more importantly, improved model explanations. We have evaluated our approach in the standard and few-shot settings and observed a consistent improvement across various CL approaches using different architectures and techniques to generate model explanations and demonstrated our approach showing a promising connection between explainability and continual learning. Our code is available at \url{https://github.com/SaynaEbrahimi/Remembering-for-the-Right-Reasons}.


翻译:持续学习(CL)的目标是学习一系列任务,而不会因为灾难性的遗忘现象而痛苦地忘记。 先前的工作已经表明,以回放缓冲的形式利用记忆,可以减少先前任务的业绩退化。 我们假设,如果鼓励模型记住以前做出的决定,就可以进一步减少忘记。 作为探索这一假设的第一步,我们提议了一个简单的新颖的培训模式,称为 " 牢记正确的原因 " (RRR),在缓冲中额外储存每个例子的视觉模型解释,并确保模型有预测的“正确理由”,鼓励其解释与培训时用于决策的解释保持一致。没有这种限制,解释就会有所转移,随着传统的持续学习算法学习新任务而忘却也会增加。我们展示了RRR如何容易添加到任何记忆或正规化的方法中,并导致减少忘却,更重要的是,改进了模型解释。我们评估了我们在标准环境和少镜头中的做法,并观察到了各种CL方法在使用不同的架构和技术来生成模型解释/Reurqrah/Recomimia 之间的一致性改进了我们不断学习的代码。

0
下载
关闭预览

相关内容

专知会员服务
45+阅读 · 2020年10月31日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
110+阅读 · 2020年6月10日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
已删除
将门创投
6+阅读 · 2019年11月21日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Arxiv
0+阅读 · 2021年6月20日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年11月21日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
相关论文
Arxiv
0+阅读 · 2021年6月20日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
6+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员