一文打尽目标检测NMS:效率提升方法总结

2020 年 7 月 20 日 极市平台

加入极市专业CV交流群,与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度 等名校名企视觉开发者互动交流!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~

7月22日极市平台与重磅邀请到ICML 2020杰出论文一作魏恺轩,为我们深度讲解论文相关工作:免调试即插即用的近端优化算法请大家锁定直播时间7月22日(周三)20:00。详情戳这里,在极市平台后台回复“62”,即可获取直播链接本次直播由极市平台和中国图象图形学学会青年工作委员联合组织。

来源|曲终人不散丶@知乎,https://zhuanlan.zhihu.com/p/157900024

可以看到,NMS由于顺序处理的原因,运算效率较为低下。在笔者的实际项目中,NMS往往能占模型计算总时间的40%甚至更多,极大影响了模型的效率。经过笔者一段时间的调研,关于提升NMS运算速度的方法,在这里也将结合代码进行阶段性总结。

所参考的代码库列举如下:

1. Faster RCNN pytorch (rbg大神) 的 CUDA NMS https://github.com/rbgirshick/py-faster-rcnn

2. YOLACT团队提出的Fast NMS https://github.com/dbolya/yolact

3. CIoU团队提出的Cluster NMS https://github.com/Zzh-tju/CIoU

4. SOLOv2团队提出的Matrix NMS https://github.com/WXinlong/SOLO

5. Torchvision封装的免编译CUDA NMS

加速的关键

在进入正题之前,首先我们应该考察一下NMS运算效率的瓶颈在哪?答案自然是IoU计算及顺序迭代抑制

假如一张图片中有 个检测框,由于顺序处理的原因,某一个框与其他框计算IoU,最少一次,最多有 次。再加上顺序迭代抑制,NMS算法在计算IoU方面,共需要计算IoU至少 次,最多 次。

因此,要想加速NMS,首当其冲应该要将IoU的计算并行化。这个操作在我们使用IoU-based loss的时候就有,只需计算检测框集合 与自身的IoU即可。检测框集合 事先会按照得分降序排列,也就是说 是最高得分框, 是最低得分框。得到如下这个IoU矩阵:

得益于GPU的并行计算,我们可以一次性得到IoU的全部计算结果。这一步就已经极大地解决了IoU计算繁琐又耗时的问题。代码如下:

def box_iou(boxes1, boxes2):    # https://github.com/pytorch/vision/blob/master/torchvision/ops/boxes.py    """    Return intersection-over-union (Jaccard index) of boxes.    Both sets of boxes are expected to be in (x1, y1, x2, y2) format.    Arguments:        boxes1 (Tensor[N, 4])        boxes2 (Tensor[M, 4])    Returns:        iou (Tensor[N, M]): the NxM matrix containing the pairwise            IoU values for every element in boxes1 and boxes2    """
def box_area(box): # box = 4xn return (box[2] - box[0]) * (box[3] - box[1])
area1 = box_area(boxes1.t()) area2 = box_area(boxes2.t())
lt = torch.max(boxes1[:, None, :2], boxes2[:, :2]) # [N,M,2] rb = torch.min(boxes1[:, None, 2:], boxes2[:, 2:]) # [N,M,2]
inter = (rb - lt).clamp(min=0).prod(2) # [N,M] return inter / (area1[:, None] + area2 - inter) # iou = inter / (area1 + area2 - inter)

到这里为止,以上列出的5种NMS都可以做到,从速度上来说CUDA NMS和torchvision NMS相对底层,编译后使用,速度稍快,但必然损失了一些灵活度,后面会讲。(关于CUDA NMS的教程,有兴趣的小伙伴可以参考faster-rcnn源码阅读:nms的CUDA编程,非常详实。

在有了IoU矩阵之后,接下来就是应该要如何利用它来抑制冗余框。

IoU矩阵的妙用

以下列举的三篇文献,可谓是将IoU矩阵玩出了花,从不同的角度发扬光大,在NMS加速方面也确实走在正轨上。(所用的一些符号,笔者进行了统一)

1、Fast NMS

Fast NMS是《YOLACT: Real-time Instance Segmentation》一文的其中一个创新点。由于IoU的对称性,即 看出 是一个对称矩阵。再加上一个框自己与自己算IoU也是无意义的,因此Fast NMS首先对 使用pytorch的triu函数进行上三角化,得到了一个对角线元素及下三角元素都为0的IoU矩阵

接着对 执行按列取最大值操作,得到一维张量 代表了 的第 列上元素的最大值。最后使用NMS阈值,论文取0.5,对 二值化。 中元素小于NMS阈值的是保留的框,≥NMS阈值的是冗余框。例如

1代表保留,0代表抑制。

代码如下:

def fast_nms(self, boxes, scores, NMS_threshold:float=0.5):    '''    Arguments:        boxes (Tensor[N, 4])        scores (Tensor[N, 1])    Returns:        Fast NMS results    '''    scores, idx = scores.sort(1, descending=True)    boxes = boxes[idx]   # 对框按得分降序排列    iou = box_iou(boxes, boxes)  # IoU矩阵    iou.triu_(diagonal=1)  # 上三角化    keep = iou.max(dim=0)[0] < NMS_threshold  # 列最大值向量,二值化
return boxes[keep], scores[keep]

优点

  1. 速度比cython编译加速的Traditional NMS快。(上表截自https://github.com/Zzh-tju/CIoU)

2. 可支持与其他提升精度的NMS方法结合。

缺点

1. Fast NMS会比Traditional NMS抑制更多的框,性能略微下降。

2. 比CUDA NMS慢,约0.2ms。

这里有必要解释一下,为什么Fast NMS会抑制更多的框?

我们知道NMS的思想是:当一个框是冗余框,被抑制后,将不会对其他框产生任何影响。但在Fast NMS中,如果一个框 的得分比 高,且 被抑制了,矩阵 的第 行正是 与得分低于它的所有框的IoU,如果 这个元素≥NMS阈值的话,那么在取列最大值这个操作时, 的第 个元素必然≥NMS阈值,于是很不幸地 就被抑制掉了。

也就是在刚刚的例子中,由于第二个框 被抑制,那么第二行第四列的0.72就不应该存在,可是Fast NMS允许冗余框去抑制其他框,导致了第四个框 被错误地抑制了。

不过呢,YOLACT主要针对的是实例分割,mask是从box中裁剪出来的,Fast NMS对mask AP的下降比较轻微,约0.1~0.3的AP,但似乎对目标检测的box AP会下降更多。

2、Cluster NMS

Cluster NMS出自《Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation》一文。研究者主要旨在弥补Fast NMS的性能下降,期望也利用pytorch的GPU矩阵运算进行NMS,但同时又使得性能保持与Traditional NMS相同。

最开始看到这个名字时,笔者还以为是采取聚类的NMS,这不禁让人想起了今年2月的FeatureNMS。但后来仔细看了过后,发现这里的cluster的含义不一样。

以上是论文的原话,意思是说,cluster是一个框集合,若某一个框A属于这个cluster,则必有cluster中的框与A的IoU≥NMS阈值,且A不会与除这个cluster之外的框有IoU≥NMS阈值。举个简单的例子:

上图中的黑红蓝橙四个框构成一个cluster,而绿色的两个框构成一个cluster,虽然两个cluster之间有相交,但都没有超过NMS阈值,于是这两个框集合不能合并成一个cluster。

然后我们看一下Cluster NMS是怎么做的?

其实就是一个迭代式的Fast NMS。前面的过程与Fast NMS一模一样,都是 按得分降序排列,计算IoU矩阵,上三角化。然后按列取最大值,经过NMS阈值二值化得到一维张量 。但不同于Fast NMS直接输出了 ,Cluster NMS而是利用 ,将它展开成一个对角矩阵 。也就是这个对角矩阵 的对角线元素与 相同。然后用 去左乘IoU矩阵 。然后再按列取最大值,NMS阈值二值化得到一个新的一维张量 ,再展开成一个新的对角矩阵 ,继续左乘IoU矩阵 。直到出现某两次迭代后, 保持不变了,那么谁该保留谁该抑制也就确定了。

这里借用一下作者在github的流程图。

以笔者的角度看,这种利用矩阵左乘的方式,其实就是在省略上一次Fast NMS迭代中被抑制的框对其他框的影响。

因为我们知道一个对角矩阵左乘一个矩阵,就是在做行变换啊,对应行是1,乘完的结果这一行保持不变,如果对应行是0,乘完的结果就是把这一行全部变成0。而 中某个元素若是0,就代表这个位置是冗余框,于是乘完之后,这个冗余框在下一次的迭代中就不再对其他框产生影响。为什么这里要强调下一次迭代?是因为这个迭代过程 会不断发生变动!可能某个框这会儿是冗余框,到了下一次迭代又变成了保留框。但是但是!到了最终 (其实未必是迭代满n次), 就保持不变了!你说奇怪不?这里论文还给出了一个命题,说Cluster NMS的输出结果与Traditional NMS的结果一模一样

论文里还给出了对这个命题的证明,又是数学数学数学!大致一看是利用数学归纳法证的,感兴趣的可以去看论文,这里请允许我跳过。

def cluster_nms(self, boxes, scores, NMS_threshold:float=0.5):    '''    Arguments:        boxes (Tensor[N, 4])        scores (Tensor[N, 1])    Returns:        Fast NMS results    '''    scores, idx = scores.sort(1, descending=True)    boxes = boxes[idx]   # 对框按得分降序排列    iou = box_iou(boxes, boxes).triu_(diagonal=1)  # IoU矩阵,上三角化    C = iou    for i in range(200):            A=C        maxA = A.max(dim=0)[0]   # 列最大值向量        E = (maxA < NMS_threshold).float().unsqueeze(1).expand_as(A)   # 对角矩阵E的替代        C = iou.mul(E)     # 按元素相乘        if A.equal(C)==True:     # 终止条件            break    keep = maxA < NMS_threshold  # 列最大值向量,二值化
return boxes[keep], scores[keep]

好了,至此Cluster NMS算是完成了对Fast NMS性能下降的弥补。我们直接看结果好了

嗯,效果还是可以的,保持了AP与AR一样,运算效率比Fast NMS下降了一些,毕竟是迭代Fast NMS的操作,但也比Traditional NMS快多了。

以为这样就完了?接下来才是重头戏

这里又分为两个部分,一个是实用上的,另一个是理论上的。先说一下实用上的。

之前说过基于pytorch的NMS方法灵活度要比CUDA NMS更高,就在于这些基于pytorch的NMS是高层语言编写,专为研究人员开发,矩阵运算清晰简洁,于是乎可以很方便地与一些能够提升精度的NMS方法结合!正所谓强强联合,于是就诞生出了又快又好的一系列Cluster NMS的变体。

论文里主要举了三种变体:

  1. 得分惩罚机制SPM(Score Penalty Mechanism)

也就是对刚刚Cluster NMS终止后的矩阵 ,先做一个Soft-NMS里gaussian版的变换,然后将每一列上的元素连乘作为惩罚得分的系数。不过论文提到,虽然是叫得分惩罚机制,但又与Soft-NMS不同,因为这里的SPM不改变框的次序,再加上矩阵 是一个上三角矩阵的缘故,所以每个框都只会被得分高于它的框惩罚,并且这里已经排除了高得分的冗余框对它的惩罚。而Soft-NMS每次迭代惩罚得分后,需要重新按得分降序排列,所以框的次序会不断变动。

def SPM_cluster_nms(self, boxes, scores, NMS_threshold:float=0.5):    '''    Arguments:        boxes (Tensor[N, 4])        scores (Tensor[N, 1])    Returns:        Fast NMS results    '''    scores, idx = scores.sort(1, descending=True)    boxes = boxes[idx]   # 对框按得分降序排列    iou = box_iou(boxes, boxes).triu_(diagonal=1)  # IoU矩阵,上三角化    C = iou    for i in range(200):            A=C        maxA = A.max(dim=0)[0]   # 列最大值向量        E = (maxA < NMS_threshold).float().unsqueeze(1).expand_as(A)   # 对角矩阵E的替代        C = iou.mul(E)     # 按元素相乘        if A.equal(C)==True:     # 终止条件            break    scores = torch.prod(torch.exp(-C**2/0.2),0)*scores    #惩罚得分    keep = scores > 0.01    #得分阈值筛选    return boxes[keep], scores[keep]

2. +中心点距离

说到底DIoU就是该团队提出来的,那怎能不用上中心点距离呢?于是论文在两个方面添加了中心点距离。一个是IoU矩阵直接变成DIoU矩阵,由于DIoU也是满足尺度不变性的,所以完全没问题,相距很远的框之间的DIoU会变成负数,不过不影响过程。第二个是基于上面的SPM,公式如下:

这里多添了一个 也就是DIoU loss的惩罚项,两框中心点距离²/最小包围矩形对角线长度²。 用于控制中心点距离惩罚的幅度。然后又与1相比较,取最小值,以避免惩罚因子大于1。

加了这两个变体之后,AP与AR得到了明显的改善,速度也是略微下降,很香

3. 加权平均法Weighted NMS

也是利用矩阵 ,先与得分张量 按列相乘得到 ,随后

就可以更新框的坐标了。

在YOLOv3上的效果有了不错的改进,虽然速度不及torchvision NMS,增加了5ms的运算成本,但结合Weighted NMS与DIoU,可以提升精度 (最后一行)。

def Weighted_cluster_nms(self, boxes, scores, NMS_threshold:float=0.5):    '''    Arguments:        boxes (Tensor[N, 4])        scores (Tensor[N, 1])    Returns:        Fast NMS results    '''    scores, idx = scores.sort(1, descending=True)    boxes = boxes[idx]   # 对框按得分降序排列    iou = box_iou(boxes, boxes).triu_(diagonal=1)  # IoU矩阵,上三角化    C = iou    for i in range(200):            A=C        maxA = A.max(dim=0)[0]   # 列最大值向量        E = (maxA < NMS_threshold).float().unsqueeze(1).expand_as(A)   # 对角矩阵E的替代        C = iou.mul(E)     # 按元素相乘        if A.equal(C)==True:     # 终止条件            break    keep = maxA < NMS_threshold  # 列最大值向量,二值化    weights = (C*(C>NMS_threshold).float() + torch.eye(n).cuda()) * (scores.reshape((1,n)))    xx1 = boxes[:,0].expand(n,n)    yy1 = boxes[:,1].expand(n,n)    xx2 = boxes[:,2].expand(n,n)    yy2 = boxes[:,3].expand(n,n)
weightsum=weights.sum(dim=1) # 坐标加权平均 xx1 = (xx1*weights).sum(dim=1)/(weightsum) yy1 = (yy1*weights).sum(dim=1)/(weightsum) xx2 = (xx2*weights).sum(dim=1)/(weightsum) yy2 = (yy2*weights).sum(dim=1)/(weightsum) boxes = torch.stack([xx1, yy1, xx2, yy2], 1) return boxes[keep], scores[keep]

接下来说一下Cluster NMS理论上的好处。

Cluster NMS的迭代次数通常少于Traditional NMS的迭代次数。

这一优点,从理论上给了它使用CUDA编程更进一步加速的可能。大致意思是说,平常我们在做NMS时,迭代都是顺序处理每一个cluster的。在Traditional NMS中,虽然不同的cluster之间本应毫无关系,但计算IoU重复计算了属于不同cluster之间的框,顺序迭代抑制的迭代次数也仍然保持不变。

但在Cluster NMS中,使用这种行变换的方式,就可以将本应在所有cluster上迭代,化简为只需在一个拥有框数量最多的cluster上迭代就够了(妙啊)。不同的cluster间享有相同的矩阵操作,且它们互不影响。这导致迭代次数最多不超过一张图中最大cluster所拥有的框的个数。也就是下面这种情形

上图中共有10个检测框,分成了3个cluster,它的IoU矩阵(被NMS阈值二值化了)在右边。Cluster NMS做迭代的次数最多不超过4次,因为上图中框数量最多的那个cluster(红色)一共只有4个框。而实际上这张图使用Cluster NMS,只需迭代2轮便结束了。

因此这带来的好处是时间复杂度的下降。特别是对于一张图中有很多个cluster时,效果更为显著。比如这种情形,密密麻麻的狗狗

物体数量越多,到时候的检测框也就越多,形成的cluster必然也会增多,于是乎Cluster NMS这种对所有cluster并行处理的算法必然迭代次数非常少,不会随着物体的增多而过分地增加迭代轮数。最极端的情形是 个物体形成 个cluster,Traditional NMS需要迭代 次,而Cluster NMS不与cluster数量有关,只与需要迭代次数最多的那一个cluster有关。这也是为什么文中说,有可能可以被进一步使用工程技巧加速的原因,比如底层CUDA实现。

优点

  1. Cluster NMS可以保持与Traditional NMS一样的精度,速度快于Cython编译的Traditional NMS。
  2. 可以结合一些提升精度的方法,比如得分惩罚法,加权平均法,+中心点距离法。
  3. 并行处理cluster,给了算法迭代次数一个上界 (最大cluster的框数量)。

缺点

速度上,各种变体Cluster NMS < Cluster NMS < Fast NMS < CUDA NMS
3、Matrix NMS

Matrix NMS出自SOLOv2: Dynamic, Faster and Stronger,也是利用排序过后的上三角化的IoU矩阵。不同在于它针对的是mask IoU。我们知道mask IoU的计算会比box IoU计算更耗时一些,特别是在Traditional NMS中,会加剧运算开销。因此Matrix NMS将mask IoU并行化是它最大的一个贡献。然后论文同样采取了得分惩罚机制来抑制冗余mask。具体代码如下:

不过笔者在实现这个代码时遇到了问题,惩罚因子decay通常会≥1,在考虑一个mask 的惩罚因子decay时,与两个东西有关,一个是所有得分高于它的mask与Bj的IoU,该IoU越大,惩罚应该更多(也就是上图中decay的分子);另一个是所有得分高于 的mask 被抑制的概率(也就是上图中decay的分母),这是由 所处的这一列的最大IoU决定,越大则 越可能是冗余mask,就应该降低对 的惩罚力度。

随后decay取列最小值。但依据如上代码,decay通常会≥1,这会增大mask的得分,而代码又以0.05作为score筛选的阈值,说明应该是减少得分的思想没有错,这个矛盾导致得出的结果奇差无比。如有任何人知道Matrix NMS出现这种问题的原因,还请告知我问题在哪。

这里直接贴出论文结果,从这里似乎也看出了相比于Soft-NMS每次迭代重排序的做法,直接得分惩罚也是可取的。

优点

  1. 实现了mask IoU的并行计算,对于box-free的密集预测实例分割模型很有使用价值。
  2. 与Fast NMS一样,只需一次迭代。

缺点

与Fast NMS一样,直接从上三角IoU矩阵出发,可能造成过多抑制。

总结

1. CUDA NMS与Torchvision NMS稍快于以上三种基于pytorch实现的NMS,但比较死板,改动不易。

2. Cluster NMS基本可以取代Fast NMS,且与其他提升精度的方法的有机结合,使它又快又好。(目前作者团队的代码库只提供了得分惩罚法,+中心点距离,加权平均法三种。)

3. Matrix NMS也可以参考Cluster NMS的方式先得到一个与Traditional NMS一样的结果后,再进行后续处理。

4. 三种基于pytorch的NMS方法,只依赖于矩阵操作,无需编译。

5. 将2D检测的NMS加速方法推广至3D检测,应该也是很有价值的。

参考资料

  • YOLACT: Real-time Instance Segmentation . ICCV 2019
  • Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation . Arxiv 2020.05
  • SOLOv2: Dynamic, Faster and Stronger . Arxiv 2020.03


推荐阅读



添加极市小助手微信 (ID : cv-mart) ,备注: 研究方向-姓名-学校/公司-城市 (如:目标检测-小极-北大-深圳),即可申请加入 极市技术交流群 ,更有 每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、 干货资讯汇总、行业技术交流 一起来让思想之光照的更远吧~

△长按添加极市小助手

△长按关注极市平台,获取 最新CV干货

觉得有用麻烦给个在看啦~   
登录查看更多
1

相关内容

专知会员服务
114+阅读 · 2020年8月22日
深度学习目标检测方法综述
专知会员服务
273+阅读 · 2020年8月1日
3D目标检测进展综述
专知会员服务
191+阅读 · 2020年4月24日
专知会员服务
160+阅读 · 2020年4月21日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
2019 DR loss(样本不平衡问题)目标检测论文阅读
极市平台
11+阅读 · 2019年10月28日
目标检测中边界框的回归策略
极市平台
17+阅读 · 2019年9月8日
小目标检测相关技巧总结
极市平台
28+阅读 · 2019年8月15日
总结-CNN中的目标多尺度处理
极市平台
17+阅读 · 2019年7月24日
目标检测之非极大值抑制(NMS)各种变体
极市平台
3+阅读 · 2019年5月2日
一种小目标检测中有效的数据增强方法
极市平台
119+阅读 · 2019年3月23日
CVPR 2018|Cascade R-CNN:向高精度目标检测器迈进
极市平台
10+阅读 · 2018年7月20日
RCNN算法分析
统计学习与视觉计算组
10+阅读 · 2018年1月12日
Arxiv
8+阅读 · 2018年4月8日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
4+阅读 · 2017年11月14日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关VIP内容
专知会员服务
114+阅读 · 2020年8月22日
深度学习目标检测方法综述
专知会员服务
273+阅读 · 2020年8月1日
3D目标检测进展综述
专知会员服务
191+阅读 · 2020年4月24日
专知会员服务
160+阅读 · 2020年4月21日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
相关资讯
2019 DR loss(样本不平衡问题)目标检测论文阅读
极市平台
11+阅读 · 2019年10月28日
目标检测中边界框的回归策略
极市平台
17+阅读 · 2019年9月8日
小目标检测相关技巧总结
极市平台
28+阅读 · 2019年8月15日
总结-CNN中的目标多尺度处理
极市平台
17+阅读 · 2019年7月24日
目标检测之非极大值抑制(NMS)各种变体
极市平台
3+阅读 · 2019年5月2日
一种小目标检测中有效的数据增强方法
极市平台
119+阅读 · 2019年3月23日
CVPR 2018|Cascade R-CNN:向高精度目标检测器迈进
极市平台
10+阅读 · 2018年7月20日
RCNN算法分析
统计学习与视觉计算组
10+阅读 · 2018年1月12日
相关论文
Arxiv
8+阅读 · 2018年4月8日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
4+阅读 · 2017年11月14日
Arxiv
4+阅读 · 2016年12月29日
Top
微信扫码咨询专知VIP会员