Modularity is a compelling solution to continual learning (CL), the problem of modeling sequences of related tasks. Learning and then composing modules to solve different tasks provides an abstraction to address the principal challenges of CL including catastrophic forgetting, backward and forward transfer across tasks, and sub-linear model growth. We introduce local module composition (LMC), an approach to modular CL where each module is provided a local structural component that estimates a module's relevance to the input. Dynamic module composition is performed layer-wise based on local relevance scores. We demonstrate that agnosticity to task identities (IDs) arises from (local) structural learning that is module-specific as opposed to the task- and/or model-specific as in previous works, making LMC applicable to more CL settings compared to previous works. In addition, LMC also tracks statistics about the input distribution and adds new modules when outlier samples are detected. In the first set of experiments, LMC performs favorably compared to existing methods on the recent Continual Transfer-learning Benchmark without requiring task identities. In another study, we show that the locality of structural learning allows LMC to interpolate to related but unseen tasks (OOD), as well as to compose modular networks trained independently on different task sequences into a third modular network without any fine-tuning. Finally, in search for limitations of LMC we study it on more challenging sequences of 30 and 100 tasks, demonstrating that local module selection becomes much more challenging in presence of a large number of candidate modules. In this setting best performing LMC spawns much fewer modules compared to an oracle based baseline, however, it reaches a lower overall accuracy. The codebase is available under https://github.com/oleksost/LMC.


翻译:模块化是持续学习( CL) 的令人信服的解决方案, 即相关任务模式的建模序列问题 。 学习和随后组成模块以解决不同任务 的模块提供了抽象性, 以应对 CL 的主要挑战, 包括灾难性的忘记、 倒向和前向跨任务和亚线性模型增长 。 我们引入了本地模块构成( LMC ), 即模块模块化 CL 的方法, 向每个模块提供当地结构部分, 以估算模块与输入的相关性 。 动态模块构成根据本地相关性分数从层次上进行演。 我们表明, 任务识别( 本地) 源自( 本地) 模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化模块化

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年3月19日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
9+阅读 · 2019年4月19日
Arxiv
7+阅读 · 2018年12月26日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
7+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年3月19日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
9+阅读 · 2019年4月19日
Arxiv
7+阅读 · 2018年12月26日
Top
微信扫码咨询专知VIP会员