模型无关元学习(Model-agnostic meta learning, MAML)是目前小样本元学习的主流方法之一。尽管MAML是有效的,但由于MAML固有的双层问题结构,其优化具有挑战性。具体而言,MAML的损失情况比经验风险最小化方法复杂得多,可能包含更多的鞍点和局部最小化点。为了应对这一挑战,我们利用最近发明的锐度感知最小化(sharp -aware minimization)方法,提出一种锐度感知的MAML方法(Sharp-MAML)。实验结果表明,Sharp-MAML及其高效计算变体的性能优于现有主流的MAML基准(例如,在Mini-Imagenet上的准确率为+12%)。我们用收敛速度分析和Sharp-MAML的泛化界来补充实证研究。据我们所知,这是第一次在双层学习背景下对锐度感知最小化问题进行实证和理论研究。代码可以在https://github.com/mominabbass/Sharp-MAML上找到。

https://arxiv.org/abs/2206.03996

成为VIP会员查看完整内容
16

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,也是CCF-A类学术会议。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,录用率为21.94%。
专知会员服务
14+阅读 · 2021年9月23日
专知会员服务
18+阅读 · 2021年9月16日
专知会员服务
19+阅读 · 2021年8月30日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
26+阅读 · 2021年5月24日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【ICML2022】通过能量最小化学习迭代推理
ACL 2022 | 分解的元学习小样本命名实体识别
PaperWeekly
1+阅读 · 2022年6月30日
CVPR 2022 | 元学习在图像回归任务的表现
PaperWeekly
1+阅读 · 2022年6月11日
【ICML2021】统一鲁棒半监督变分自编码器
专知
1+阅读 · 2021年7月12日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
12+阅读 · 2022年4月12日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
135+阅读 · 2018年10月8日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年9月23日
专知会员服务
18+阅读 · 2021年9月16日
专知会员服务
19+阅读 · 2021年8月30日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
26+阅读 · 2021年5月24日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
微信扫码咨询专知VIP会员