【ICLR2021】MELR:通过为少样本学习建模情节层次关系的元学习

2021 年 1 月 31 日 专知

最近的小样本学习方法几乎都是基于场景式(元任务式)训练,即为了模仿测试时的情况,每个元任务中对于每个类只采样少量训练样本(支撑样本)。然而,这种严格仿照测试情况的训练方式有个副作用,即训练得到的模型容易受到少量支撑样本的坏采样的影响。在本工作中,我们第一次以探索场景之间关系的方式来尝试解决该问题。特别地,我们提出了一个新颖的建模场景级别关系的元学习(MELR)框架:通过采样两个拥有相同类别集合的场景用于元训练,MELR用来保证训练得到的模型在元测试阶段对于质量不高的支撑样本的存在是鲁棒的。这可以通过设计两个关键部件来实现:(1)一个跨场景注意力模块(CEAM)来提高模型减少坏采样支撑样本带来的反作用的能力;(2)一个跨场景一致性正则(CECR)来保证分别在两个场景下独立得到的两个分类器有一致的表现。在两个基准数据集上,大量标准小样本学习实验显示我们的MELR相比于我们使用的基准方法(原型网络)取得了1.0%- 5.0%的性能提升,而且在相同设置下打败了最新的方法。


https://openreview.net/forum?id=D3PcGLdMx0


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“MELR” 可以获取【ICLR2021】MELR:通过为少样本学习建模情节层次关系的元学习专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
3

相关内容

【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
【WWW2021】充分利用层级结构进行自监督分类法扩展
专知会员服务
15+阅读 · 2021年2月7日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
专知会员服务
29+阅读 · 2020年9月18日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
84+阅读 · 2020年6月9日
【ICML2020】小样本目标检测
专知会员服务
90+阅读 · 2020年6月2日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【ICML2020】小样本目标检测
专知
7+阅读 · 2020年6月2日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
Frustratingly Simple Few-Shot Object Detection
Arxiv
3+阅读 · 2020年3月16日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
12+阅读 · 2019年4月9日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
7+阅读 · 2018年1月21日
Arxiv
9+阅读 · 2016年10月27日
VIP会员
相关VIP内容
【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
【WWW2021】充分利用层级结构进行自监督分类法扩展
专知会员服务
15+阅读 · 2021年2月7日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
专知会员服务
29+阅读 · 2020年9月18日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
84+阅读 · 2020年6月9日
【ICML2020】小样本目标检测
专知会员服务
90+阅读 · 2020年6月2日
相关论文
Frustratingly Simple Few-Shot Object Detection
Arxiv
3+阅读 · 2020年3月16日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
12+阅读 · 2019年4月9日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
7+阅读 · 2018年1月21日
Arxiv
9+阅读 · 2016年10月27日
Top
微信扫码咨询专知VIP会员