北大&微软等提出Dense RepPoints:网格还是轮廓?一种更通用的实例分割表示方法 | ECCV 2020

2020 年 8 月 22 日 CVer

点击上方“CVer”,选择加"星标"置顶

重磅干货,第一时间送达

注:本文系CVer粉丝投稿,欢迎大家分享优质工作

目前主流的实例分割方法通常基于网格掩码的表示方法,例如Mask R-CNN、TensorMask等等。轮廓是另一种物体分割的表示方法,30年前曾风靡一时的SNAKE就是基于轮廓表示的一种方法,但在深度学习时代,其精度一直比不上基于网格掩码的方法。


微软亚洲研究院联合北大,港中文,上海交大和多伦多大学的研究员们提出了一种全新的利用稠密代表点集(Dense RepPoints)的方法来表示物体,这种新的表示方式具有高度灵活的表达能力,网格与物体轮廓均是其特例。Dense RepPoints还可以用来实现一种结合网格掩码和轮廓两者优点的边缘掩码新表示方法,其基于ResNet-50的backbone在COCO实例分割上取得了39.0 mAP的表现,超越了同期的SOLO,PolarMask,Deep Snake和其后的CondInst。该方法还具有以下优点:


1)Dense RepPoints也可以与PolarMask等方法一样直接表达物体轮廓。但是与PolarMask需要显示地基于手工设计的固定规则来定义每个轮廓点不同,Dense RepPoint直接利用点集间的匹配来学习轮廓,方法更简单也更灵活。

2) 和PointRend一样,Dense RepPoint可以将主要计算放在更重要的物体边缘附近,从而在同样的计算复杂度下,取得更好的分割精度。

3)和此前物体检测和分割采用不同表示不同Dense RepPoints可以同时表示物体不同粒度的几何结构,从而同时提升物体检测和分割的效果。


目前,Dense RepPoints已被ECCV2020所接收。


Arxiv: https://arxiv.org/abs/1912.11473

Github: https://github.com/justimyhxu/Dense-RepPoints


RepPoints是一种针对物体检测的表示方法,基于这一表示构建的anchor-free检测器在COCO上取得了很好的性能,但是由于RepPoints只有9个点,且只包含点的位置信息,其无法表示物体更精细的结构,从而难以应用于实例分割任务。知乎上相关链接:https://www.zhihu.com/question/322372759


Dense RepPoints是RepPoints的一个重要拓展,相比于RepPoints,其用更多的点(例如225个)来表示物体,并增加了每个点的属性信息:

Dense RepPoints的通用表示能力


前述重要拓展使得Dense RepPoints不仅仅能刻画物体的物体的几何定位并进行更细粒度的的特征提取,同样能表示更精细的物体结构,例如物体轮廓、网格、边缘等等。具体来说,对于轮廓,Dense RepPoints可以通过boundary sampling来采样轮廓的点得到对轮廓的离散表达;而对于传统的网格掩模,可以利用Grid sampling 来用Dense RepPoints模拟网格分布。


如下图所示:


边缘掩码表示:结合轮廓和网格掩码的优点


前述基于轮廓的方法对物体的表达更紧凑(需要更少的信息),且由于更关注对物体边缘的分割,有望得到更精确的边缘。而基于网格掩码的方法通过对网格点做前背景分类的方式来实现物体的分割,更易于学习。基于这两种表达的优点,作者提出了结合轮廓和网格掩码两种表示优点的新表示方法:边缘掩码表示,如上图最右所示。和轮廓表示类似,这一种新表示将点集主要放在物体边缘附近,从而可以更精细地表示物体边缘,另一方面,和网格掩码表示类似,这一方法也采用了代表点前背景分类的方法来实现物体分割,从而更利于学习。注意到这和同期的PointRend将主要计算放在边缘部分的思想很类似,在不提升计算复杂度的情况下得到更高分辨率的输出,从而提升分割的精度。


基于Chamfer Loss的点集监督方法


为了实现上述新的物体表示方法,一个关键问题是如何通过学习让预测的点集位于物体边缘附近。作者提出了一种基Chamfer Loss的点集监督方法,对于每个ground truth的实例mask,我们根据与物体轮廓的距离生成一个和预测点集相同数目的ground-truth点集,越靠近物体边缘的点的采样密度越高,而越远离物体边缘的点的采样密度越低。由于很难精确为每个预测点赋予固定的几何意义,作者提出了利用Chamfer Loss来定义ground-truth点集和预测点集之间整体的差异:



这一种监督方法不需要ground-truth点集和预测点集之间的一一对应关系,从而具有更强的普适性。下图显示了利用该监督方法学到的预测点集的分布,可以看到预测点集很好地学到了物体的边缘附近。


从点集到连续域分割:Delaunay三角化插值


尽管通过的Dense Reppoints可以学习到一组表达物体分割的点集,但由于其本身是稀疏并且是非网格化的,因此需要额外的步骤将得到的点集转化为连续的二进制掩码。为此作者们提出了两种后处理方法Concave Hull 和Triangulation得到最终的分割结果:



Concave Hull: 轮廓采样使用这种后处理方法。首先使用一个阈值对预测点的前景分数进行二值化,然后计算其ConcaveHull得到二值掩模。


Triangulation: 在学习到的点集上应用Delaunay三角剖分将空间分割成三角形,然后由于空间中的每个像素将落入一个三角形内,可以通过三角形中质心坐标进行线性插值获得每个点的分数。最后,利用阈值对插值的分数图进行二值化,得到二值掩模。


与点数无关的高效实现


作者们发现,更多数目的点能提升实例分割的精度,但是整个框架的计算复杂度也迅速增加。为此,该文提出了一种高效的实现方法,其复杂度几乎与点的数目无关。具体来说,针对分类分支,作者发现选用固定数目的group(默认group数目=9)特征,能取得和利用所有点相同的准确度,从而使得这一分支的复杂度不随点数增加(下图左)。针对回归分支,作者发现每个点的refine只需要当前点的特征即可,从而使得其复杂度也和点的数目无关(下图右)。

 


基于Dense RepPoints的anchor-free实例分割框架


基于Dense RepPoints 的检测和分割的框架如下图所示,除了在物体表示上的创新外,也注意到这一框架是anchor-free的。


主要实验结果


1) Dense RepPoints的高效实现


2)物体的不同表示和点的数目的比较


3)COCO实例分割结果


实例分割的结果上Dense RepPoints在ResNet-101的backbone下比其他的方法都要好,进一步更换ResneXt-101的backbone,Dense RepPoints能达到41.8mAP。

4)COCO物体检测结果

以ResNet-101为backbone,Dense RepPoints在1x设置下可达到42.1 mAP,分别比RepPoints 和Mask R-CNN分别高1.1 mAP和3.9 mAP。通过使用ResNeXt-101-DCN作为更强的backbone,Dense RepPoints达到了48.9 mAP,超过了所有其他anchor-free的SOTA方法


此外,在RepPoints V2中,实例分割的性能进一步得到提升,在ResNet-50上取得了最高的实例分割性能39.0 mAP。


RepPoints V2相关介绍见

52.1 AP!MSRA&北大提出RepPoints V2:最强Anchor-free目标检测网络

代码见:https://github.com/Scalsol/RepPointsV2


下载


论文PDF已打包好,在CVer公众号后台回复0823,即可下载访问


下载1


在CVer公众号后台回复PRML,即可下载758页《模式识别和机器学习》PRML电子书和源码该书是机器学习领域中的第一本教科书,全面涵盖了该领域重要的知识点。本书适用于机器学习、计算机视觉、自然语言处理、统计学、计算机科学、信号处理等方向。


PRML


下载2


在CVer公众号后台回复:CVPR2020,即可下载CVPR2020 2020代码开源的论文合集

在CVer公众号后台回复:ECCV2020,即可下载ECCV 2020代码开源的论文合集


重磅!CVer-目标检测 微信交流群已成立


扫码添加CVer助手,可申请加入CVer-目标检测 微信交流群,目前已汇集4100人!涵盖2D/3D目标检测、小目标检测、遥感目标检测等。互相交流,一起进步!


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加群


▲长按关注我们

整理不易,请给CVer点赞和在看

登录查看更多
1

相关内容

专知会员服务
45+阅读 · 2020年10月5日
专知会员服务
12+阅读 · 2020年9月19日
【ECCV2020】OCRNet化解语义分割上下文信息缺失难题
专知会员服务
16+阅读 · 2020年8月24日
3D目标检测进展综述
专知会员服务
191+阅读 · 2020年4月24日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
TensorMask: A Foundation for Dense Object Segmentation
Arxiv
10+阅读 · 2019年3月28日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
8+阅读 · 2018年5月17日
Arxiv
3+阅读 · 2018年3月5日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关VIP内容
专知会员服务
45+阅读 · 2020年10月5日
专知会员服务
12+阅读 · 2020年9月19日
【ECCV2020】OCRNet化解语义分割上下文信息缺失难题
专知会员服务
16+阅读 · 2020年8月24日
3D目标检测进展综述
专知会员服务
191+阅读 · 2020年4月24日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
相关论文
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
TensorMask: A Foundation for Dense Object Segmentation
Arxiv
10+阅读 · 2019年3月28日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
8+阅读 · 2018年5月17日
Arxiv
3+阅读 · 2018年3月5日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员