点击上方“CVer”,选择加"星标"置顶
重磅干货,第一时间送达
本文转载自:晓飞的算法工程笔记
论文针对当前anchor-free目标检测算法的问题提出了DDBNet,该算法对预测框进行更准确地评估,包括正负样本以及IoU的判断。DDBNet的创新点主要在于box分解和重组模块(D&R)和语义一致性模块,分别用于解决中心关键点的回归不准问题以及中心关键点与目标语义不一致问题。从实验来看,DDBNet达到了SOTA,整篇论文可圈可点,但里面的细节还需要等源码公开才知道
论文: Dive Deeper Into Box for Object Detection
目前,越来越多的目标检测算法采用anchor-free的策略,尽管性能有一定的提升,但anchor-free方法依然会有准确率约束,主要由于当前bbox的回归方法。这里,论文列举了两个当前anchor-free方法存在的问题:
为了解决上面的两个问题,论文提出了新的目标检测算法DDBNet,包含box分解/组合模块以及语义一致模块,分别用于解决中心关键点的回归不准问题以及中心关键点与目标的语义不一致问题,结果如图2中的实线框。论文的主要贡献如下:
基于anchor-free架构提出新的目标检测算法DDBNet,能够很好地解决中心关键点的回归问题以及中心关键点的语义一致性。
验证了中心关键点和GT的语义一致性,能够帮助提升目标检测网络的收敛性。
DDBNet能够达到SOTA精度(45.5%),并且能够高效地拓展到其它anchor-free检测器中。
DDBNet基于FCOS搭建,如图3所示,创新点主要在于box分解和重组模块(D&R, decomposition and recombination)和语义一致性模块(semantic consistency):
给定目标 , 中的每个像素 都回归一个预测框 ,预测框的合集为 ,4个元素分别为点到左边、上边、右边和下边的距离。常规情况下,IoU回归损失定义为:
为所有目标区域的像素数量, 为回归目标,而D&R模块的目的是通过IoU损失进行优化,预测更准确的 。
如图4所示,D&R模块基于IoU,包含四个步骤:
Decomposition:将预测框 分解为边界 ,然后将 与 的IoU 赋予各边界。对于目标 ,边界的置信度表示为 矩阵 ,然后根据边界的类型组合成4个合集 , , ,
Ranking:最优的预测框应该有最小的IoU损失,遍历目标 的所有预测边界的组合来组合最优的预测框 是个不错的选择,但直接遍历会带来巨大的计算复杂度 。为了避免带来过大的计算量,论文提出了先对边界进行高效的排序。对于 的每个边界集合,首先计算其与GT边界 的偏差 , , , ,然后根据其偏差值进行排序,与GT更接近的边界获得更高的排名。
Recombination:将不同集合中排名相同的边界组合成新预测框合集 ,然后将新预测框 与GT 的IoU赋予对应的边界,构成新的 矩阵 。
Assignment:经过上面的步骤,得到了两组边界得分 和 ,每个边界的最终得分为两者中的较大值。上述的分配策略直接取 ,主要考虑了以下情况:排位较低的边界组成的新预测框一般都与GT差异较大,其新分数 也会远低于原分数 ,这种严重的分数偏差在训练阶段会导致回传梯度不稳定。
在模型训练时,通过IoU损失进行边界预测的优化,损失函数包含两部分:
对于目标 ,每条边用其较高的分数进行回传梯度的计算,这里看完会有点疑问,例如 是怎么对比的,原预测框的边界可能组合成了不同的新预测框。相对于原来的公式1,公式2则是以目标的角度进行优化(instance-wise fashion),综合考虑目标相关的box,也就是考虑了目标的上下文信息,而公式1是以box的角度进行优化(local-wise fashion),仅考虑每个box的局部信息。
D&R模块的性能取决于使用了目标中的哪些像素作为正样本,目前的方法大都直接选择固定的中心区域像素作为正样本,而论文提出了自适应的语义一致性判断方法,能够帮助网络学习准确的像素标签空间,可公式化为:
为目标 的像素对应的预测框与GT的IoU分数合集, 为 的平均IoU分数, 为低于平均IoU分数的像素, 为高于平均IoU分数的像素。 为 像素中分数最高的类别, 为总类别数, 为低于平均分类分数像素, 为低于平均分类分数像素,这里的判断是类不可知的。
根据公式3将像素归为正负样本,如图5所示,如果一个像素可归于多个目标,一般选择最小的目标。在自动地根据语义一致性对像素进行标签后,论文将每个正样本像素的内在重要性(inner significance)加入到网络训练中,用来提升语义一致性的学习,类似于FCOS的centerness。内在重要性由像素预测框与GT的IoU进行衡量,在网络中添加一个额外的语义一致性分支进行预测与学习,损失函数定义为:
为预测结果。至此,DDBNet的完整损失函数定义为:
在COCO数据集上与其它方法进行对比。
两个模块的对比实验。
论文针对当前anchor-free目标检测算法的问题提出了DDBNet,该算法对预测框进行更准确地评估,包括正负样本以及IoU的判断。DDBNet的创新点主要在于box分解和重组模块(D&R)和语义一致性模块,分别用于解决中心关键点的回归不准问题以及中心关键点与目标语义不一致问题。从实验来看,DDBNet达到了SOTA,整篇论文可圈可点,但里面的细节还需要等源码公开才知道。
资料下载
在CVer公众号后台回复:目标检测二十年,即可下载39页的目标检测最全综述,共计411篇参考文献。
下载2
后台回复:CVPR2020,即可下载代码开源的论文合集
后台回复:ECCV2020,即可下载代码开源的论文合集
后台回复:YOLO,即可下载YOLOv4论文和代码
重磅!CVer-目标检测 微信交流群已成立
扫码添加CVer助手,可申请加入CVer-目标检测 微信交流群,目前已汇集4100人!涵盖2D/3D目标检测、小目标检测、遥感目标检测等。互相交流,一起进步!
同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加群
▲长按关注我们
整理不易,请给CVer点赞和在看!