The goal of few-shot learning is to classify unseen categories with few labeled samples. Recently, the low-level information metric-learning based methods have achieved satisfying performance, since local representations (LRs) are more consistent between seen and unseen classes. However, most of these methods deal with each category in the support set independently, which is not sufficient to measure the relation between features, especially in a certain task. Moreover, the low-level information-based metric learning method suffers when dominant objects of different scales exist in a complex background. To address these issues, this paper proposes a novel Multi-scale Adaptive Task Attention Network (MATANet) for few-shot learning. Specifically, we first use a multi-scale feature generator to generate multiple features at different scales. Then, an adaptive task attention module is proposed to select the most important LRs among the entire task. Afterwards, a similarity-to-class module and a fusion layer are utilized to calculate a joint multi-scale similarity between the query image and the support set. Extensive experiments on popular benchmarks clearly show the effectiveness of the proposed MATANet compared with state-of-the-art methods.


翻译:短片学习的目的是用很少标签的样本来分类隐蔽类别。最近,低层次的信息衡量学习方法取得了令人满意的业绩,因为当地代表(LRS)在可见和看不见的类别之间更加一致。然而,这些方法大多是独立地处理支助组的每个类别,这不足以衡量特征之间的关系,特别是在某一任务中。此外,低层次的信息基础衡量学习方法在复杂的背景中存在不同尺度的主要对象时会受到影响。为解决这些问题,本文件提议建立一个新的多尺度适应性任务关注网络(MATANet),供少片学习使用。具体地说,我们首先使用多尺度的特性生成器在不同尺度上产生多种特征。然后,提出一个适应性任务关注模块,以便在整个任务中选择最重要的 LTDs。随后,使用一个类似的类模块和一个聚合层来计算查询图像与支助组之间的多尺度联合相似性。关于普及基准的广泛实验清楚地表明了拟议的MATANet相对于最新方法的有效性。

0
下载
关闭预览

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
PaperWeekly
120+阅读 · 2019年4月1日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Arxiv
4+阅读 · 2019年12月2日
Arxiv
9+阅读 · 2019年4月19日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关论文
Arxiv
4+阅读 · 2019年12月2日
Arxiv
9+阅读 · 2019年4月19日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
19+阅读 · 2018年3月28日
Top
微信扫码咨询专知VIP会员