元学习利用相关的源任务来学习初始化,可以通过有限的标记示例将初始化快速调整到目标任务。然而,许多流行的元学习算法,如模型无关元学习(MAML),都只假设可以访问目标样本进行微调。在这项工作中,我们提供了一个通用的元学习框架,该框架基于对不同源任务的损失进行加权,其中的权重允许依赖于目标样本。在这个一般的设置中,我们提供了基于积分概率度量(IPM)和Rademacher复杂性的源任务加权经验风险和预期目标风险之间距离的上限,该上限适用于包括MAML和加权MAML变体在内的许多元学习设置。然后开发一个基于最小化误差学习算法对实证IPM,包括α-MAML加权MAML算法。最后,我们实证地证明了我们的加权元学习算法能够比单加权元学习算法(如MAML)找到更好的初始化。

成为VIP会员查看完整内容
39

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
元强化学习迎来一盆冷水:不比元Q学习好多少
AI科技评论
12+阅读 · 2020年2月27日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
8+阅读 · 2018年1月12日
VIP会员
相关VIP内容
相关论文
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
8+阅读 · 2018年1月12日
微信扫码咨询专知VIP会员