我们提出了一种新的在线元学习算法,在有限的监督下顺序揭示任务实例,并期望学习器在每一轮中对它们进行元学习,从而允许学习器在很少的任务级监督下快速定制特定任务模型。在线元学习中出现的一个基本问题是,随着时间的推移,学习任务越来越多,记忆的可扩展性也越来越强。到目前为止,之前的工作都允许完美的回忆,导致记忆随时间线性增加。与之前的工作不同,在我们的方法中,先前的任务实例是允许被删除的。我们建议通过固定大小的状态向量来利用之前的任务实例,状态向量是按顺序更新的。我们的理论分析表明,我们提出的记忆高效在线学习(MOML)方法具有凸损失函数的次线性遗憾和非凸损失的次线性局部遗憾。在基准数据集上,我们证明了我们的方法可以超越之前的方法,即使它们允许完美的回忆。

http://proceedings.mlr.press/v139/acar21b.html

成为VIP会员查看完整内容
22

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
18+阅读 · 2021年9月4日
专知会员服务
33+阅读 · 2021年8月16日
专知会员服务
16+阅读 · 2021年7月27日
专知会员服务
15+阅读 · 2021年6月4日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
80+阅读 · 2021年5月10日
【基于元学习的推荐系统】5篇相关论文
专知
9+阅读 · 2020年1月20日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
Arxiv
0+阅读 · 2021年11月15日
Arxiv
3+阅读 · 2020年11月26日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
18+阅读 · 2021年9月4日
专知会员服务
33+阅读 · 2021年8月16日
专知会员服务
16+阅读 · 2021年7月27日
专知会员服务
15+阅读 · 2021年6月4日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
80+阅读 · 2021年5月10日
微信扫码咨询专知VIP会员