被拒 ECCV 2020!AutoAssign:最强Anchor-free目标检测网络

2020 年 7 月 9 日 CVer

点击上方“CVer”,选择加"星标"置顶

重磅干货,第一时间送达

本文转载自:AI深度学习视线 |  论文已上传,文末附下载方式


Rejected by ECCV 2020; Reformated

AutoAssign:以52.1%的AP成就最强Anchor-free目标检测网络!用于密集目标检测的可微标签分配,模型表现SOTA!优于所有现有的一级检测器,如ATSS、FreeAnchor和FCOS等网络,注:并没有成功收录到ECCV 2020。

作者团队:旷视研究院

链接:https://arxiv.org/abs/2007.03496




1


摘要




在本文中,我们提出了一种具有完全differentiable标签分配策略的anchor-free目标检测器,称为AutoAssign。
它通过生成正负权重图来动态修改每个位置的预测,从而自动确定正样本/负样本 。具体来说,我们提供了一个中心加权模块来调整特定于类别的先验分布,以及一个置信度加权模块来适应每个实例的特定分配策略。整个标签分配过程是可微的,不需要其他修改即可迁移到不同的数据集和任务。
在MS COCO上进行的大量实验表明,我们的方法以各种主干的AP稳定地超过了其他最佳采样策略〜1%。此外,我们最好的模型可达到52.1%的AP,优于所有现有的一级检测器。此外,对其他数据集PASCAL VOC,Objects365和WiderFace的实验证明了AutoAssign的广泛适用性。


2


主要思路


2.1 检测现状

检测需要密集的提取正负样本,而根据它们的空间位置进行正负样本分配的过程,称之为标签分配。现代基于cnn的检测器通常采用多尺度特征(如FPN[10])来缓解尺度方差,因此标签分配不仅需要在空间特征映射图中选择位置,还需要选择合适尺度的特征。

(1)Anchor-based检测器
如RetinaNet在每个位置预设几个不同尺度和纵横比的anchor,根据交并比(IoU)排序来选择合适的正负样本。

(2)Anchor-free检测器

如FCOS等无锚探测器对每个目标采样中心面积的固定比例作为空间正位置,并根据预先定义的尺度约束选取FPN的某一阶段。
这些检测器遵循对象的先验分布来设计它们的分配策略。

2.2 发现问题

在现实世界中,物体的外观会因类别和场景的不同而有很大差异,如图2所示。固定中心采样策略可以选择外部对象为正的位置。直观上,物体上的采样位置比普通背景要好,因为这些位置容易产生更高的分类置信度。另一方面,虽然CNN可以学习偏移量,但是当背景采样为正时,feature shift造成的障碍可能会降低性能。
因此,上述固定策略可能并不总是在空间和规模上选择最合适的位置。


2.3 解决思路

在这项工作中,我们提出了一个完全可微策略的标签分配。如图1所示。
  • 首先遵循像FCOS这样的无锚方式,在没有人为设计锚的情况下在每个位置上直接预测对象。

  • 为了为进一步优化保留足够的位置,首先将边界框内的所有位置在所有尺度级别上都视为正候选和负候选。 然后生成正权值和负权权值映射对训练损失进行修正
  • 为了适应不同类别和领域的分布,提出了一个分类加权模块,名为中心加权,从数据中学习每个类别的分布。

  • 为了适应每一种姿态的外观和尺度,提出了一个置信加权模块来在空间和尺度维度上对位置的正置信和负置信进行建模。

  • 然后结合这两个模块来生成所有位置的正权值映射和负权值映射加权的整个过程是可微的,可以通过反向传播方便进行优化。


2.4 本文贡献

1. 针对密集目标检测,提出了一种新的可微标签分配策略——自动分配算法。此外,可学习范式使它能够在不进行任何修改的情况下转换到不同的数据集和任务。

2. 两个加权模块,即在空间和尺度两个维度上,提出了中心加权和置信加权,以自适应地增加特定类别的分布和特定实例的采样策略。

3.在具有挑战性的MS COCO[12]数据集和来自不同领域的其他数据集(如pascal VOC[3,4]、Object365[19]和宽面[22])上进行了具有竞争性结果的广泛实验,证明了自动分配的有效性和广泛适用性。


3


AutoAssign


3.1 Overview

标签分配是一个完全数据驱动的方式。它从头开始构建,没有传统的组件,例如锚点、IoU阈值、top-k或scale范围,而是直接使用网络预测动态调整每个位置的正/负置信度。

为了优化整个标签分配过程,我们提出了一个完全可区分的策略,在空间和尺度上动态调整特定类别和特定实例的采样策略策略框架如图3所示。

首先采用FCOS等无锚方式,放弃预先设计的锚,直接预测每个有限元位置上的对象。对于每个实例,我们在它的边界框中保留了所有缩放级别的位置,包括正、负。

然后生成正权值和负权值图w+和w−,以精确地修正训练中对正、负权值的预测。因此,我们将整个分配步骤转换为两个权值映射。

为了适应不同类别的分布,提出了一个名为center weights的分类和依赖数据的权重模块。它先从标准中心开始,然后从数据中学习每个类别的分布。

为了适应每种姿态的外观和尺度,进一步提出了一个实例加权模型,称为置信加权。它根据每个目标的预测置信度,动态地对目标在空间和尺度上的位置进行加权。最后,结合两个权重模块来生成所有位置的正权值和负权值。给定一个对象n,我们构建应用整个加权机制后的训练损失如下式所示:


3.2 Center Weighting

先验分布是标签分配的基本要素,特别是在训练的早期阶段。一般来说,物体的分布以中心优先为主。然而,来自不同类别的对象,例如长颈鹿和人类可能有不同的分布。保持采样中心的位置不能捕捉实际实例的不同分布对于不同类别的对象,自适应中心分布更适合去血缘化。基于中心先验,我们引入了一个具有可学习参数的分类高斯形状加权函数G。“分类的方式”是指每个类别都有其独特的参数(μ,σ),而同一类别的所有对象共享相同的参数。这里我们将G定义为:

直观地,~u控制每个类别的中心距框中心的偏移量。并且~σ根据类别特征来衡量每个位置的重要性 。因此,~σ决定了在用合理的权重下有多少位置会有效地导致正损失。
还需要注意的是,
G适用于所有FPN阶段 。由于同一类别的对象可以具有任意大小或长宽比,因此最合适的位置可以在任何FPN阶段。此外,为了补偿不同的FPN降采样率所带来的干扰,我们根据FPN各阶段的降采样率对距离~d进行了归一化。


3.3 Confidence Weighting

现有的动态策略在设计时考虑到网络可以很容易地获得高置信度的合适样本,同时倾向于对次样本进行低置信度的预测。其中,置信度指标分别在尺度选择和空间分配(锚一致性)中被证明是有效的。在置信度加权中,我们提出了分类和局部化的联合置信度指标来指导空间和尺度上的加权策略。


  • Classification confidence

给定一个空间位置,其分类的置信度可以自然定义为Pi(cls|θ)式中为模型参数。然而,为了确保考虑到所有合适的位置,我们首先考虑了盒子内的所有空间位置。由于一个对象很难完全填满它的边框,初始的正集往往会包含相当一部分背景位置。如果一个位置实际上是背景,那么该位置中的所有类谓词都应该是不合理的。因此,将太多的低背景位置作为正确率将损害检测性能。

为了抑制来自劣质位置的假正样本,引入了一个新的Implicit-Objectness分支,如图3所示。它的工作原理与RPN[17]和YOLO[14]中的Objectness一样,是一个基于前景和背景的二元分类任务。但这里存在缺乏明确标签的问题。RPN和YOLO采用预先定义的赋值,带有一致的正标签,而我们需要动态地寻找和强调适当的正标签。因此,我们将Objectness和classification分支一起优化,因此它不需要显式标签。这就是为什么它被称为隐含对象(ImpObj)。对于位置i∈Sn,应用ImpObj后,可以定义分类置信度Pi(cls|θ):


  • joint confidence modeling
为了生成每个位置的正/负无偏估计,除了分类之外,还应该包括定位置信度。典型的本地化输出是框偏移量,很难直接度量回归置信度。将局部化损失Lloci(θ) 转化为似然Pi(loc|θ)它可以由loss Li(θ)推导如下。在不失一般性的前提下, 本文采用二元交叉熵(BCE)损失进行分类。


  • Weighting function

在联合置信表示Pi(θ)的基础上,我们将置信加权函数C(Pi)以指数形式提出,以强调包含高度置信对象的位置为:

3.4 Weight Maps

  • Positive weights

给定一个目标i,对于其边框内的所有位置,应该关注正确的位置,并做出更准确的预测。然而,在训练过程的开始,网络参数被随机初始化,使得其预测的置信区间不合理。因此,来自先验的指导信息也很重要。对于位置i∈Sn,我们将中心权重模块的特定类别先验G(~di)和置信度权重模块C(Pi)组合在一起,生成正权重wi+为:


  • Negative weights

一个边界盒通常包含一定数量的真实背景位置,我们还需要加权的负损失来抑制这些位置,消除假positive标签。此外,由于方框内的位置总是倾向于预测positive的高置信度,我们倾向于使用位置信度来生成无偏假positive label。矛盾的是,负分类对回归任务没有梯度,这意味着位置信度不应该进一步优化。因此,我们在每个位置的预测建议和所有对象之间使用IoUs来生成我们的负权值wi- as

3.5 Loss Function

通过生成正权和负权映射,实现了为每个实例动态分配更合适的空间位置和自动选择合适的FPN阶段的目的。由于权重映射会导致训练损失,因此以可微的方式处理标签分配。AutoAssign的最终损失函数:

S表示所有尺度上的所有位置。因此对于边界盒内的某个位置,正损失和负损失都将以不同的权重进行计算。这与其他标签分配策略有很大的不同。为了处理负位置之间的不平衡问题,采用了focal loss。


4


实验结果


4.1 消融实验

  • Center weighting and confidence weighting


中心权重和置信权重的贡献


  • Analysis of center weighting


  • Analysis of confidence weighting


4.2 SOTA对比实验

COCO数据集:


下载


在CVer公众号后台回复AutoAssign,即可下载本论文


重磅!CVer-目标检测 微信交流群已成立


扫码添加CVer助手,可申请加入CVer-目标检测 微信交流群,目前已汇集4100人!涵盖2D/3D目标检测、小目标检测、遥感目标检测等。互相交流,一起进步!


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加群


▲长按关注我们

整理不易,请给CVer点赞和在看

登录查看更多
15

相关内容

深度学习目标检测方法综述
专知会员服务
273+阅读 · 2020年8月1日
【文献综述】深度学习目标检测方法及其主流框架综述
专知会员服务
118+阅读 · 2020年6月26日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
专知会员服务
160+阅读 · 2020年4月21日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
47.4mAP!最强Anchor-free目标检测网络:SAPD
极市平台
13+阅读 · 2019年12月16日
ICCV 2019 | 精确的端到端的弱监督目标检测网络
AI科技评论
11+阅读 · 2019年12月9日
角网络——目标检测(文后有paper地址及源码)
计算机视觉战队
5+阅读 · 2019年6月5日
最新Anchor-Free目标检测模型—FoveaBox
PaperWeekly
6+阅读 · 2019年4月29日
FoveaBox,超越Anchor-Based的检测器
极市平台
10+阅读 · 2019年4月22日
CVPR 2018|Cascade R-CNN:向高精度目标检测器迈进
极市平台
10+阅读 · 2018年7月20日
Arxiv
5+阅读 · 2019年4月8日
Scale-Aware Trident Networks for Object Detection
Arxiv
4+阅读 · 2019年1月7日
Arxiv
6+阅读 · 2018年7月9日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
6+阅读 · 2018年2月6日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关VIP内容
相关资讯
47.4mAP!最强Anchor-free目标检测网络:SAPD
极市平台
13+阅读 · 2019年12月16日
ICCV 2019 | 精确的端到端的弱监督目标检测网络
AI科技评论
11+阅读 · 2019年12月9日
角网络——目标检测(文后有paper地址及源码)
计算机视觉战队
5+阅读 · 2019年6月5日
最新Anchor-Free目标检测模型—FoveaBox
PaperWeekly
6+阅读 · 2019年4月29日
FoveaBox,超越Anchor-Based的检测器
极市平台
10+阅读 · 2019年4月22日
CVPR 2018|Cascade R-CNN:向高精度目标检测器迈进
极市平台
10+阅读 · 2018年7月20日
相关论文
Arxiv
5+阅读 · 2019年4月8日
Scale-Aware Trident Networks for Object Detection
Arxiv
4+阅读 · 2019年1月7日
Arxiv
6+阅读 · 2018年7月9日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
6+阅读 · 2018年2月6日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
4+阅读 · 2016年12月29日
Top
微信扫码咨询专知VIP会员