In lifelong learning, the tasks (or classes) to be learned arrive sequentially over time in arbitrary order. During training, knowledge from previous tasks can be captured and transferred to subsequent ones to improve sample efficiency. We consider the setting where all target tasks can be represented in the span of a small number of unknown linear or nonlinear features of the input data. We propose a provable lifelong learning algorithm that maintains and refines the internal feature representation. We prove that for any desired accuracy on all tasks, the dimension of the representation remains close to that of the underlying representation. The resulting sample complexity improves significantly on existing bounds. In the setting of linear features, our algorithm is provably efficient and the sample complexity for input dimension $d$, $m$ tasks with $k$ features up to error $\epsilon$ is $\tilde{O}(dk^{1.5}/\epsilon+km/\epsilon)$. We also prove a matching lower bound for any lifelong learning algorithm that uses a single task learner as a black box. Finally, we complement our analysis with an empirical study.


翻译:在终身学习中,需要学习的任务(或班级)会随时间的任意顺序相继到达。在培训期间,以往任务的知识可以捕捉,并转让给后来的任务,以提高样本效率。我们考虑所有目标任务都可以在输入数据的少量未知线性或非线性特征中体现的设置。我们建议一种可实现的终身学习算法,以维持和完善内部特征代表。我们证明,对于所有任务的任何预期准确性来说,代表的维度仍然接近于基本代表的准确度。由此产生的抽样复杂性大大改进了现有界限。在设置线性特征时,我们的算法非常有效,投入层面的抽样复杂度为$($ $), $( $\ epslon$ ) 最多误差为$\ tilde{O} (dk ⁇ 1.5}/\ epsilon+km/\ epsilon) 。我们还证明,任何使用单一任务学习者作为黑盒的终身学习算法的比起来要低。最后,我们用实验性研究补充我们的分析。

1
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年7月15日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
36+阅读 · 2020年2月27日
专知会员服务
53+阅读 · 2019年12月22日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年12月27日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
6+阅读 · 2019年11月14日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
7+阅读 · 2018年5月23日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
0+阅读 · 2021年12月27日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
6+阅读 · 2019年11月14日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
7+阅读 · 2018年5月23日
Top
微信扫码咨询专知VIP会员