While recent progress has significantly boosted few-shot classification (FSC) performance, few-shot object detection (FSOD) remains challenging for modern learning systems. Existing FSOD systems follow FSC approaches, ignoring the issues of spatial misalignment and vagueness in class representations, and consequently result in low performance. Observing this, we propose a novel Dual-Awareness Attention (DAnA) mechanism that can adaptively generate query-position-aware (QPA) support features and guide the detection networks precisely. The generated QPA features represent local information of a support image conditioned on a given region of the query. By taking the spatial relationships across different images into consideration, our approach conspicuously outperforms previous FSOD methods (+6.9 AP relatively) and achieves remarkable results even under a challenging cross-dataset evaluation setting. Furthermore, the proposed DAnA component is flexible and adaptable to multiple existing object detection frameworks. By equipping DAnA, conventional object detection models, Faster R-CNN and RetinaNet, which are not designed explicitly for few-shot learning, reach state-of-the-art performance in FSOD tasks.


翻译:虽然最近的进展大大提升了少数分级(FSC)的性能,但对现代学习系统而言,微小的物体探测(FSOD)仍具有挑战性。现有的FSOD系统采用FSC方法,忽略了阶级表现的空间错配和模糊问题,因而造成低性能。我们注意到这一点,提出一个新的双重意识关注机制,可以适应性地生成查询定位(QPA)支持功能,并准确指导探测网络。生成的QPA功能代表以查询区域为条件的辅助图像的当地信息。通过考虑不同图像的空间关系,我们的方法明显优于以前的FSOD方法(+6.9 AP相对而言),甚至在具有挑战性的交叉数据评价环境下也取得了显著成果。此外,拟议的DAA组成部分具有灵活性,适应了多种现有物体探测框架。通过装备DAnA、常规物体探测模型、快速R-CNN和RetinaNet,这些功能并非专门设计用于少发学、达到FSOMD任务的状态性能。

0
下载
关闭预览

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
专知会员服务
20+阅读 · 2021年7月28日
【NeurIPS2020】针对弱监督目标检测的综合注意力自蒸馏
专知会员服务
30+阅读 · 2020年11月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Cascade R-CNN 论文笔记
统计学习与视觉计算组
8+阅读 · 2018年6月28日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
11+阅读 · 2018年3月15日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
12+阅读 · 2019年4月9日
Arxiv
7+阅读 · 2018年12月5日
Deep Learning for Generic Object Detection: A Survey
Arxiv
13+阅读 · 2018年9月6日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
6+阅读 · 2018年3月19日
VIP会员
相关VIP内容
专知会员服务
20+阅读 · 2021年7月28日
【NeurIPS2020】针对弱监督目标检测的综合注意力自蒸馏
专知会员服务
30+阅读 · 2020年11月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Cascade R-CNN 论文笔记
统计学习与视觉计算组
8+阅读 · 2018年6月28日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
11+阅读 · 2018年3月15日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
相关论文
Arxiv
11+阅读 · 2019年4月15日
Arxiv
12+阅读 · 2019年4月9日
Arxiv
7+阅读 · 2018年12月5日
Deep Learning for Generic Object Detection: A Survey
Arxiv
13+阅读 · 2018年9月6日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
6+阅读 · 2018年3月19日
Top
微信扫码咨询专知VIP会员