小样本学习是计算机视觉中的一项基本任务,它带来了减轻对详尽标记数据需求的希望。到目前为止,大多数小样本学习方法都集中在日益复杂的神经特征提取器和分类器适应策略,以及任务定义本身的细化。在这篇论文中,我们探讨了一个假设,即一个简单的基于类协方差的距离度量,即马氏距离,被采用到一个最先进的小样本学习方法(CNAPS)中,它本身可以导致显著的性能改进。我们还发现,学习自适应特征提取器是可能的,它允许从非常少的样本中对该度量所需的高维特征协方差进行有用的估计。我们的工作结果是一个新的“简单的CNAPS”架构,它比CNAPS少了9.2%的可训练参数,并且在标准的小样本图像分类基准数据集上比现有的技术水平高了6.1%。

成为VIP会员查看完整内容
67

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
【CVPR2020-旷视】DPGN:分布传播图网络的小样本学习
专知会员服务
26+阅读 · 2020年4月1日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
小样本学习(Few-shot Learning)综述
PaperWeekly
120+阅读 · 2019年4月1日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
Arxiv
7+阅读 · 2020年3月1日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年12月5日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关论文
Arxiv
7+阅读 · 2020年3月1日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年12月5日
Arxiv
11+阅读 · 2018年7月8日
微信扫码咨询专知VIP会员