最近的小样本学习方法几乎都是基于场景式(元任务式)训练,即为了模仿测试时的情况,每个元任务中对于每个类只采样少量训练样本(支撑样本)。然而,这种严格仿照测试情况的训练方式有个副作用,即训练得到的模型容易受到少量支撑样本的坏采样的影响。在本工作中,我们第一次以探索场景之间关系的方式来尝试解决该问题。特别地,我们提出了一个新颖的建模场景级别关系的元学习(MELR)框架:通过采样两个拥有相同类别集合的场景用于元训练,MELR用来保证训练得到的模型在元测试阶段对于质量不高的支撑样本的存在是鲁棒的。这可以通过设计两个关键部件来实现:(1)一个跨场景注意力模块(CEAM)来提高模型减少坏采样支撑样本带来的反作用的能力;(2)一个跨场景一致性正则(CECR)来保证分别在两个场景下独立得到的两个分类器有一致的表现。在两个基准数据集上,大量标准小样本学习实验显示我们的MELR相比于我们使用的基准方法(原型网络)取得了1.0%- 5.0%的性能提升,而且在相同设置下打败了最新的方法。

https://openreview.net/forum?id=D3PcGLdMx0

成为VIP会员查看完整内容
14

相关内容

【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
【ICML 2020 】小样本学习即领域迁移
专知
5+阅读 · 2020年6月26日
论文浅尝 | 多标签分类中的元学习
开放知识图谱
6+阅读 · 2019年9月25日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
Arxiv
49+阅读 · 2020年12月16日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
14+阅读 · 2019年9月11日
Deep Comparison: Relation Columns for Few-Shot Learning
VIP会员
相关VIP内容
【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
相关资讯
相关论文
Arxiv
49+阅读 · 2020年12月16日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
14+阅读 · 2019年9月11日
Deep Comparison: Relation Columns for Few-Shot Learning
微信扫码咨询专知VIP会员