Recently, model-agnostic meta-learning (MAML) has garnered tremendous attention. However, the stochastic optimization of MAML is still immature. Existing algorithms for MAML exploit the "episode" idea by sampling some tasks and some data points for each sampled task at each iteration for updating the meta-model. However, they either do not necessarily guarantee convergence with a constant mini-batch size or require processing a large number of tasks at every iteration, which is not viable for continual learning or cross-device federated learning where only a small number of tasks are available per-iteration or per-round. This paper addresses these issues by (i) proposing efficient memory-based stochastic algorithms for MAML with the vanishing convergence error, which only requires sampling a constant number of tasks and a constant number of data samples per-iteration; (ii) proposing communication-efficient distributed memory-based MAML algorithms for personalized federated learning in both the cross-device (with client sampling) and the cross-silo (without client sampling) settings. The theoretical results significantly improve the optimization theory for MAML and the empirical results also corroborate the theory.


翻译:最近,模型-不可知元学习(MAML)引起了极大的注意,然而,MAML的随机优化仍然不成熟。MAML的现有算法通过抽样抽查每个迭代中每个抽样任务的某些任务和数据点,来利用“阴极”概念来更新元模,然而,这些算法不一定保证与一个不变的微型批量尺寸趋同,或要求在每一次迭代中处理大量的任务,这对于持续学习或交叉化联合学习来说是不可行的,因为只要只有少量的一线或全线任务,MAML的现有算法就可以解决这些问题。这份文件通过(一) 提出有效的MAML基于内存的随机算法与消失的汇合错误,这只需要对固定的任务数进行抽样,并不断有一定数量的数据样品来更新元模; (二) 提出通信效率分布的基于记忆的MAML算法算法,用于在交叉迭代(客户抽样)和跨筒(不包括客户抽样)环境中进行个人化的节化学习。这个理论性结果也大大改进了MAML的模拟理论。

0
下载
关闭预览

相关内容

MAML(Model-Agnostic Meta-Learning)是元学习(Meta learning)最经典的几个算法之一,出自论文《Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks》。 原文地址:https://arxiv.org/abs/1703.03400
专知会员服务
13+阅读 · 2021年10月12日
专知会员服务
97+阅读 · 2021年5月25日
【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning
专知会员服务
40+阅读 · 2020年3月25日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
160+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
14+阅读 · 2019年9月11日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员