CPNDet:简单地给CenterNet加入two-stage,更快更强 | ECCV 2020

2020 年 11 月 12 日 极市平台

↑ 点击蓝字 关注极市平台


作者丨VincentLee
来源丨 晓飞的算法工程笔记
编辑丨极市平台

极市导读

 

本文介绍了一篇关于目标检测算法的论文,该文提出anchor-free/two-stage目标检测算法CPN,使用关键点提取候选框再使用两阶段分类器进行预测。文章从四个部分分别阐述了CPN的基本概念,anchor-free以及two-stage的选择问题,CPN的基本框架以及相关实验结果展示。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

本文为CenterNet作者发表的,论文提出anchor-free/two-stage目标检测算法CPN,使用关键点提取候选框再使用两阶段分类器进行预测。论文整体思路很简单,但CPN的准确率和推理速度都很不错,比原本的关键点算法更快,源码也会公开,到时可以一试。

论文: Corner Proposal Network for Anchor-free,Two-stage Object Detection



  • 论文地址:https://arxiv.org/abs/2007.13816

  • 论文代码:https://github.com/Duankaiwen/CPNDet

Introduction


目前,amchor-based目标检测方法和anchor-free目标检测方法都涌现了大量的优秀检测方案。论文认为,对于形状特异的目标,anchor-free目标检测方式比较占优,但acnhor-free方法通常会出现大量的误检,如图1所示,需要一个独立的分类器来提升检测的准确率。为此,论文提出CPNDet(Corner Proposal Network),结合了anchor-free和two-stage的检测范式。先基于CornerNet进行角点检测,将有效的角点枚举组合成大量候选预测框。由于候选框包含大量负样本,先训练一个二值分类器过滤大部分的候选预测框,再使用多类别分类器进行标签预测。

Anchor-based or Anchor-free? One-stage or Two-stage?

这里论文主要讨论anchor-based vs anchor-free以及one-stage vs two-stage的问题。

Anchor-based or Anchor-free?

Anchor-based方法将大量的anchor平铺在特征图上,然后预测每个anchor是否包含物体以及标签。通常,anchor是与图片特定的位置关联,大小也是相对固定的,bbox回归能够轻微地改变其几何形状。Anchor-free方法则不受预设的anchor限制,直接定位目标的关键点,然后再预测其形状和标签。所以,论文认为anchor-free方法在任意形状目标的定位上更灵活,召回率也更高。



论文也对anchor-based方法和anchor-free方法在不同大小以及不同比例的目标上的进行召回率对比,结果如上表所示。可以看出anchor-free方法通常有较高的召回率,特别是在长宽比较大的物体上,anchor-based方法由于预设的anchor与目标差异大,召回率偏低。其次,FCOS虽然也是anchor-free方法,但其最后需要预测关键点到边界的距离,这在这种场合下也难以预测。

One-stage or Two stage?

虽然anchor-free方法解决了寻找目标候选框的约束,但由于缺乏目标的内部信息,难以很好地建立关键点与目标之间的联系,会给检测的准确率带来较大的影响,而关键点和目标之间的联系的建立通常需要丰富的语义信息。



论文将高召回率CornerNet和CenterNet作为实验目标,结果如上表所示。主干网络的加强能够带来准确率的提升,但仍然有很多的误检。如果去掉无目标的误检( )以及纠正标签的错误识别( )后,准确率能够明显地提升了。上述的实验说明,为了建立关键点与目标间的联系,需要借用two-stage的范式,提取候选框的信息来过滤误检部分。

The Framework of Corner Proposal Network

基于上面的分析,论文结合acnhor-free方法和two-stage范式提出了Corner-Proposal-Network(CPN),完整的结构如图2所示。首先使用anchor-free方法提取关键点,遍历关键点组合成候选框,最后使用两个分类器分别对候选框进行误检过滤以及标签预测。

Stage 1: Anchor-free Proposals with Corner Keypoints

第一阶段为anchor-free候选框提取过程,假定每个目标都由两个关键点进行定位,先根据CornerNet输出两组角点的热图,选择top-k个左上角点以及top-k个右下角点。将有效的关键点组合成目标的候选框,关键点组合是否有效主要有两个判断:
  1. 关键点是否属于同一个类别
  2. 左上角点必须在右上角点的左上位置
尽管论文基于CornerNet提取候选框,但后处理有较大差异。CornerNet使用embedding向量来组合关键点,论文认为embedding向量并不能保证是可学习的,而论文采用独立的分类器进行处理,能够使用完整的中间特征来提升准确率。

Stage 2: Two-step Classification for Filtering Proposals

基于anchor-free方法提取候选框虽然召回率很高,但会带来大量的误检,论文采用two-step分类方法进行过滤和校正。首先采用轻量的二值分类器过滤80%的候选框,然后使用多分类器预测剩余候选框的类别。

第一步训练二值分类器来决定候选框是否为目标,采用 的RoIAlign提取每个候选框的在box特征图上的特征,然后使用1个 的卷积层来输出每个预测框的分类置信度,损失函数为:
  为总候选框数, 为正样本数, 候选框为目标的概率, 为IoU阈值,设为0.7。
第二步用于给剩余的候选框预测类别,由于缺乏目标的内部信息的,关键点的类别通常不太准确,所以需要强大的分类器来根据ROI特征进行预测。首先使用 的ROIAlign提取每个候选框在category特征图上的特征,然后使用 的卷积层输出 维向量, 为类别数量,损失函数为:
  为过滤后的候选框数量和正样本数量, 候选框的 类别置信度,其余的参数与第一步类似。

The Inference Process

推理过程跟训练过程基本一样,由于训练过程包含很多低质量的预测框, 的值是偏向零的,所以推理阶段第一步使用相对低的阈值(0.2)进行过滤,大约保留20%的候选框。在第二步,每个候选框有两个标签,分别为角点预测的标签 和第二阶段分类器预测的标签 ,当其中一个标签分数大于0.5时才将候选框输出,分数计算为 ,再归一化到

Experiments

与SOTA检测算法进行对比,初始的输入分辨率为
推理阶段的两个分类器对性能的影响,B-Classifier为二值分类器,M-Classifier为多标签分类器。
相对于其它keypoint-based方法,CPN误检更低。

 二值分类器与CornerNet的embedding向量的性能对比。

  推理速度对比。

CONCLUSION

论文提出anchor-free/two-stage目标检测算法CPN,使用关键点提取候选框再使用两阶段分类器进行预测。论文整体思路很简单,但CPN的准确率和推理速度都很不错,比原本的关键点算法更快,论文的细节也值得推敲。


推荐阅读


    添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

    △长按添加极市小助手

    △长按关注极市平台,获取 最新CV干货

    觉得有用麻烦给个在看啦~   
    登录查看更多
    0

    相关内容

    专知会员服务
    13+阅读 · 2020年9月19日
    深度学习目标检测方法及其主流框架综述
    专知会员服务
    148+阅读 · 2020年6月26日
    【文献综述】深度学习目标检测方法及其主流框架综述
    专知会员服务
    119+阅读 · 2020年6月26日
    【CMU】基于图神经网络的联合检测与多目标跟踪
    专知会员服务
    58+阅读 · 2020年6月24日
    CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
    专知会员服务
    44+阅读 · 2020年4月17日
    八篇 ICCV 2019 【图神经网络(GNN)+CV】相关论文
    专知会员服务
    30+阅读 · 2020年1月10日
    目标检测中边界框的回归策略
    极市平台
    17+阅读 · 2019年9月8日
    重磅!13篇基于Anchor free的目标检测方法
    极市平台
    4+阅读 · 2019年5月28日
    CenterNet:目标即点(代码已开源)
    极市平台
    25+阅读 · 2019年5月24日
    目标检测:Anchor-Free时代
    极市平台
    42+阅读 · 2019年4月17日
    FCOS: 最新的one-stage逐像素目标检测算法
    极市平台
    15+阅读 · 2019年4月14日
    CornerNet: Detecting Objects as Paired Keypoints 论文笔记
    统计学习与视觉计算组
    7+阅读 · 2018年9月27日
    ECCV 2018 | CornerNet:目标检测算法新思路
    极市平台
    13+阅读 · 2018年8月11日
    CVPR 2018|Cascade R-CNN:向高精度目标检测器迈进
    极市平台
    10+阅读 · 2018年7月20日
    Few-shot Adaptive Faster R-CNN
    Arxiv
    3+阅读 · 2019年3月22日
    Scale-Aware Trident Networks for Object Detection
    Arxiv
    4+阅读 · 2019年1月7日
    Arxiv
    6+阅读 · 2018年7月9日
    Arxiv
    5+阅读 · 2018年4月17日
    Arxiv
    5+阅读 · 2016年12月29日
    VIP会员
    相关资讯
    目标检测中边界框的回归策略
    极市平台
    17+阅读 · 2019年9月8日
    重磅!13篇基于Anchor free的目标检测方法
    极市平台
    4+阅读 · 2019年5月28日
    CenterNet:目标即点(代码已开源)
    极市平台
    25+阅读 · 2019年5月24日
    目标检测:Anchor-Free时代
    极市平台
    42+阅读 · 2019年4月17日
    FCOS: 最新的one-stage逐像素目标检测算法
    极市平台
    15+阅读 · 2019年4月14日
    CornerNet: Detecting Objects as Paired Keypoints 论文笔记
    统计学习与视觉计算组
    7+阅读 · 2018年9月27日
    ECCV 2018 | CornerNet:目标检测算法新思路
    极市平台
    13+阅读 · 2018年8月11日
    CVPR 2018|Cascade R-CNN:向高精度目标检测器迈进
    极市平台
    10+阅读 · 2018年7月20日
    Top
    微信扫码咨询专知VIP会员