【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning

2020 年 3 月 25 日 专知

元学习利用相关的源任务来学习初始化,可以通过有限的标记示例将初始化快速调整到目标任务。然而,许多流行的元学习算法,如模型无关元学习(MAML),都只假设可以访问目标样本进行微调。在这项工作中,我们提供了一个通用的元学习框架,该框架基于对不同源任务的损失进行加权,其中的权重允许依赖于目标样本。在这个一般的设置中,我们提供了基于积分概率度量(IPM)和Rademacher复杂性的源任务加权经验风险和预期目标风险之间距离的上限,该上限适用于包括MAML和加权MAML变体在内的许多元学习设置。然后开发一个基于最小化误差学习算法对实证IPM,包括α-MAML加权MAML算法。最后,我们实证地证明了我们的加权元学习算法能够比单加权元学习算法(如MAML)找到更好的初始化。


https://arxiv.org/abs/2003.09465



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“WML” 就可以获取【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【资源】元学习论文分类列表推荐
专知
19+阅读 · 2019年12月3日
448页伊利诺伊大学《算法》图书-附下载
专知
15+阅读 · 2018年12月31日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
8+阅读 · 2018年1月12日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员