点击上方“CVer”,选择加"星标"置顶
重磅干货,第一时间送达
论文已上传,文末附下载方式
本文作者:马宇宸
https://zhuanlan.zhihu.com/p/163044323
本文已由原作者授权,不得擅自二次转载
加入旷厂科(ban)研(zhuan)已经1年多了,最近产出一篇目标检测方向的新工作,"BorderDet: Border Feature for Dense Object Detection"。运气还算比较好,是ECCV2020 Oral的一篇工作,可以用于现在主流的dense object detector。基于FCOS的baseline有2.8个点的提升,文章和源码已经release。
我们提出了一种非常简单、高效的操作来提取物体边界极限点的特征,叫做“BorderAlign”。模型只增加很少的时间开销,可以在经典模型上FCOS(38.6 v.s. 41.4). FPN(37.1 v.s. 40.7)。下面是我们的方法和这些经典模型的对比。
对于dense object detector(e.g. FCOS、FPN的RPN),都是使用simple point特征去预测框的分类和回归,但是发现只用一个点的特征是不够的,很难去捕捉到物体边界的信息来精准定位。这些年有很多研究通过级联的方式,希望通过引入更强的特征来增加simple point特征,主要包括GA-RPN、RepPoints等。但这些工作可能存在两个问题。
这些检测器使用一些操作(e.g. Deformable Conv)来增强特征,但这些操作可能是冗余的,甚至会引入“有害”的背景信息。
这些方法没有显示的提取边界特征,我们认为边界极限点特征对边界框的定位比较重要。
如下图,这个运动员中心的五角星位置即为anchor点,但是确定该物体边界框的主要是边界上的四个橘色圆点,这个运动员的边界框的位置主要由四个极限点来确定。用其他的方法可能会引入一些有害的信息,且不能直接有效的提取到真正有用的边界极限点。
基于上述两条“痛点”,我们觉得提取物体的边界极限点的特征是不是能对物体精准定位有一些帮助?于是乎我们做了最基础的一些实验,我们基于FCOS的检测器,增加一些enhancement的特征来加强单点特征。主要有4组实验,分别来验证上面提到的两条问题。(1) single point: 单点特征做增强;(2) region: 用ROIAlign提取框内所有特征来增强;(3)border使用边界上所有点的特征来增强 (4)只用边界中心点来增强。这四个实验的特征采样位置如下图,分别对应不同的采样点个数。
我们发现,提取边界的中心点的特征,能够达到和region feature同样的结果,且采样点个数少了很多。这意味着只需要更少的复杂度,能够高效的提取到有用的特征。且同时证明了,边界极限点特征对物体定位确实有非常重要的作用。
基于上面的观察和简单的实验,我们认为这里面确实有很多油水可以炸。那我们是否能够提出一种简单且通用的操作,来显示提取边界极限点的特征,精准定位物体的框。于是我们开始介绍这个工作的组成,从局部到整体的顺序。(BorderAlign -> BAM -> BorderDet)
BorderAlign
这是本工作最核心的一个操作,用来显式、自适应的提取物体边界的特征。如上图右上角。对于一个特征图,通道个数为5xC,这是一个border-sensitive的特征图,分别对应物体4个边界特征和原始anchor点位置的特征。对于一个anchor点预测的一个框,我们把这个框的4个border对应在特征图上的特征分别做pooling操作。且由于框的位置是小数,所以该操作使用双线性插值取出每个border上的特征。如图所示,我们每条边会先选出5个待采样点,再对这5个待采样点取最大的值,作为该条边的特征,即每条边最后只会选出一个采样点作为输出。那么每个anchor点都会采样5个点的特征作为输出,即输出的通道数也为5xC个。
BAM(Border Alignment Module)
对于来自于FPN的特征,borderAlign需要5xC的border-sensitive的特征图,所以需要将通道先升维,提取完后再降维。为了“最干净”的验证Border feature的有效性,BAM中使用1x1conv来做升降维,几乎不增加模型的计算量。最后还原到256通道,来做最终的边界的分类和回归。
BorderDet
网络的整体框架。我们使用经典的密集检测器FCOS作为baseline,如下图所示。上面的分支是分类分支,下面的是回归分支。centerness我们没有画,因为无关紧要,BorderDet独立于dense detector的网络结构,都有涨点。
熟悉FCOS的同学应该很容易捕获这张图的信息,coarse cls score/reg分别对应FCOS的输出。我们在四个conv后面接出来一个分支来做borderAlign操作,同时BAM模块需要将FCOS的框位置的输出作为输入,显示的提取该框边界上的特征。最终BAM会分别预测一个border score和border reg,和原始密集检测器的输出组合成为最后的输出。
模型训练及预测
BorderDet的秉持一贯“朴素、简单且有效”,训练和前传都非常简单,没有hack什么trick。
分类损失函数就是focal_loss,超参和FCOS完全一致,没什么好说的。
回归就是最简单的smoothl1,精修FCOS预测框的位置。
最后的总的损失函数就是把所有的加在一起,损失函数的权重都是1。
Exp 1. 分类回归分支
结果:分类分支提升1.1,回归提升1.1。其实也还是比较make sense的。
结论:
分类分支,精准定位有助于最后的ranking,使NMS能够pick一个更好的边界框
回归分支,获取极限点特征,更精准的回归,精修前一阶段的框,涨点很正常。
Exp 2. 对比其他特征提取操作
和其他知名的特征增强器做对比,无论是速度还是精度,都还是比较有优势。
Exp 3. 在其他密集检测器上的泛化能力
在Retinanet上有2.3的提升、FPN上有3.6的提升,在不同模型上均有不俗的表现。
现象:
我们统计了边界上提取特征的点的位置,并和COCO中seg的标注做对比。发现随着训练的进行,提取特征点的位置会逐渐趋于极限点的位置,均值在0附近,且方差逐渐变小。
结论:
在某种程度上,可证明BorderAlign确实在提取边界极限的特征,且边界极限点的特征对物体的精准定位确实有一些帮助。
非常简单且通用BorderAlign操作。
显式的提取物体边界极限点的特征。
高效且不会引入很多冗余的背景信息。
即插即用,通用且干净。
--------------------我是一条分割线------------------
都2020了,还做检测?
我们组主要在做检测及相关方向,算是实际工业领域中比较基础、经典的一个方向吧。
打一个广告:
我们BaseDetection组常年招收优秀的intern和full-time,主要有以下两个方向。
要求对技术挑战充满激情,致力于解决检测中存在的“痛点”,探索最前沿的研究,相关方向也可以。
对造轮子有热情,负责开发Codebase和基建,主要包括内部产品训练框架等、开源训练框架。
欢迎有兴趣的同学加入我们,简历可以发送至 mayuchen@megvii.com 或者base-detection-fte@megvii.com
下载
在CVer后台回复:CVPR2020,即可下载CVPR2020 2020代码开源的论文合集
后台回复:ECCV2020,即可下载ECCV 2020代码开源的论文合集
重磅!CVer-目标检测 微信交流群已成立
扫码添加CVer助手,可申请加入CVer-目标检测 微信交流群,目前已汇集4100人!涵盖2D/3D目标检测、小目标检测、遥感目标检测等。互相交流,一起进步!
同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加群
▲长按关注我们
整理不易,请给CVer点赞和在看!