入门 | 一文概览视频目标分割

2017 年 10 月 6 日 机器之心

选自Medium

机器之心编译

参与:刘晓坤、路雪


近日 Visualead 研究主管 Eddie Smolyansky 在 Midum 网站撰文介绍视频目标分割的基础知识,从视频目标分割问题简介、数据集和 DAVIS 挑战赛入手,同时介绍了 Visualead 最新发布的视频数据集 GyGO 和 2016 年以来两种主要的视频目标分割方法:MaskTrack 和 OSVOS。



DAVIS-2016 视频物体分割数据集中经过正确标注的几个帧


本文介绍了视频目标分割问题和对应的经典解决方案,简要概括为:


1. 问题、数据集和挑战赛;

2. 我们今天要宣布的新数据集;

3. 自 2016 年以来使用的两种主要方法:MaskTrack 和 OSVOS。


文章假设读者已经熟悉计算机视觉和深度学习领域的一些概念。我希望能对 DAVIS 挑战赛进行一个清晰易懂的介绍,让新手也能快速进入状态。


介绍


计算机视觉领域中和目标有关的经典任务有三种:分类、检测和分割。其中分类是为了告诉你「是什么」,后面两个任务的目标是为了告诉你「在哪里」,而分割任务将在像素级别上回答这个问题。


经典计算机视觉任务(图像来自 Stanford cs231n 课程幻灯片)


2016 年语义分割领域出现了很成熟的技术,甚至开始接近现有数据集的饱和性能。与此同时,2017 年也是各种视频处理任务爆发性增长的一年:动作分类、动作(时序)分割、语义分割等等。这里我们将着眼于视频目标分割。


问题、数据集、挑战赛


视频目标分割任务和语义分割有两个基本区别:


  • 视频目标分割任务分割的是一般的、非语义的目标;

  • 视频目标分割添加了一个时序模块:它的任务是在视频的每一连续帧中寻找感兴趣目标的对应像素。



分割的细分。图中每一叶都有一个示例数据集。


基于视频任务的特性,我们可以将问题分成两个子类:


  • 无监督(亦称作视频显著性检测):寻找并分割视频中的主要目标。这意味着算法需要自行决定哪个物体才是「主要的」。

  • 半监督:在输入中(只)给出视频第一帧的正确分割掩膜,然后在之后的每一连续帧中分割标注的目标。


半监督案例可以扩展为多物体分割问题,我们可以在 DAVIS-2017 挑战赛中看到。



DAVIS-2016 (左) 和 DAVIS-2017 (右) 标注的主要区别:多物体分割(multi-instance segmentation)


我们可以看到,DAVIS 是一个像素完美匹配标注的数据集。它的目标是重建真实的视频场景,如摄像机抖动、背景混杂、遮挡以及其它复杂状况。



DAVIS-2016 的复杂度属性


有两个度量分割准确率的主要标准:



  • 区域相似度(Region Similarity):区域相似度是掩膜 M 和真值 G 之间的 Intersection over Union 函数




  • 轮廓精确度(Contour Accuracy):将掩膜看成一系列闭合轮廓的集合,并计算基于轮廓的 F 度量,即准确率和召回率的函数。即轮廓精确度是对基于轮廓的准确率和召回率的 F 度量。


直观上,区域相似度度量标注错误像素的数量,而轮廓精确度度量分割边界的准确率。


新的数据集!GyGO:电商视频目标分割数据集(by Visualead)


我们将在未来几个星期内陆续发布 GyGO 的各部分内容,GyGO 是一个专用于电商视频物体分割的数据集,由大约 150 个短视频组成。


  • 数据集地址:https://github.com/ilchemla/gygo-dataset


一方面,视频画面的序列非常简单,几乎没有遮挡、快速移动或者其它提高复杂度的属性。另一方面,这些视频中的物体相比 DAVIS-2016 数据集有更多的类别,其中很多序列包含了已知的语义类别(人类、汽车等)。GyGO 专门搜集智能手机拍摄的视频,因此帧比较稀疏(标注的视频速度只有约 5 fps)。


我们基于以下两个目的公布数据集:


  1. 目前关于视频目标分割的数据严重缺乏,只有数百个带标注的视频。我们相信每一次贡献都有望帮助提升算法表现。我们分析认为,在 GyGO 和 DAVIS 数据集上进行联合训练,视频目标分割任务能得到更好的结果。

  2. 为了推进更加开放共享的文化,鼓励其他研究人员加入我们。:) DAVIS 数据集和能促进其生长的研究生态系统给我们提供了很大的帮助,我们也希望社区能够从中受益。


DAVIS-2016 中的两个主要方法


随着用于单一目标分割的 DAVIS-2016 数据集的公布,两个最重要的方法出现了:MaskTrack 和 OSVOS。在 DAVIS-2017 挑战赛的参赛团队中,每一支队伍都想构建超越这两者的解决方案,它们俨然已经成为「经典」。让我们看看它们是怎么工作的:


单次视频目标分割(One Shot Video Object Segmentation,OSVOS)


OSVOS 背后的概念简单而强大:



 OSVOS 训练流程


1. 选择一个网络(比如 VGG-16)在 ImageNet 上进行分类预训练。

2. 将其转换为全连接卷积网络(FCN),从而保存空间信息:


  • 训练结束时删去 FC 层。

  • 嵌入一个新的损失函数:像素级 sigmoid 平衡交叉熵(pixel-wise sigmoid balanced cross entropy,曾用于 HED)。现在,每一个像素都可以被分类成前景或背景。


3. 在 DAVIS-2016 训练集上训练新的全连接卷积网络。

4. 单次训练:在推断的时候,给定一个新的视频输入进行分割并在第一帧给出真实标注(记住,这是一个半监督问题),创建一个新模型,使用 [3] 中训练的权重进行初始化,并在第一帧进行调整。


这个流程的结果,是适用于每一个新视频的唯一且一次性使用的模型,由于第一帧的标注,对于该新视频而言,模型其实是过拟合的。由于大多数视频中的目标和背景并不会发生巨大改变,因此这个模型的结果还是不错的。自然,如果该模型用于处理随机视频序列时,则它的表现得就没那么好了。


注意:OSVOS 方法是独立地分割视频的每一帧的,因此视频中的时序信息是没有用的。


MaskTrack(从静态图像学习视频目标分割)


OSVOS 独立地分割视频的每一帧,而 MaskTrack 还需要考虑视频中的时序信息:



 MaskTrack 的 Mask 传播模块


  1. 每一个帧将前一帧的预测掩膜作为额外输入馈送给网络:现在输入有四个通道 (RGB+前一帧的掩膜)。使用第一帧的真实标注初始化该流程。

  2. 该网络原本建立在 DeepLab VGG-16(模块化)基础上,现在在语义分割和图像显著性数据集上从头开始进行训练。通过将每一张静态图像的真实标注稍微转换,人工合成前一帧的掩膜通道输入。

  3. 基于光流场输入增加一个相同的第二流网络。模型的权重和 RGB 流的权重相同。通过将两个结果取平均融合两个流的输出。

  4. 在线训练:用第一帧的真实标注合成额外的、针对特定视频的训练数据。


注意:这两个方法都依赖于静态图像训练(与静态图像数据集相反,视频数据集较少且规模较小)。


综上所述,在这篇介绍性文章中我们了解了视频目标分割问题和 2016 年的最优解决方案。


P.S. 这里我想感谢 DAVIS 数据集和挑战赛背后的团队做出的杰出贡献。 


参考文献


文中提到和分析过的主要文献:


1. Benchmark Dataset and Evaluation Methodology for Video Object Segmentation F. Perazzi, J. Pont-Tuset, B. McWilliams, L. Van Gool, M. Gross, and A. Sorkine-Hornung, Computer Vision and Pattern Recognition (CVPR) 2016

2. The 2017 DAVIS Challenge on Video Object SegmentationJ. Pont-Tuset, F. Perazzi, S. Caelles, P. Arbeláez, A. Sorkine-Hornung, and L. Van Gool, arXiv:1704.00675, 2017

3. Learning Video Object Segmentation from Static Images F. Perazzi, A. Khoreva, R. Benenson, B. Schiele, A. Sorkine-Hornung CVPR 2017, Honolulu, USA

4. One-Shot Video Object Segmentation, S. Caelles, K.K. Maninis, J. Pont-Tuset, L. Leal-Taixé, D. Cremers, and L. Van Gool, Computer Vision and Pattern Recognition (CVPR), 2017


原文链接:https://medium.com/@eddiesmo/video-object-segmentation-the-basics-758e77321914



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

登录查看更多
10

相关内容

干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
159+阅读 · 2020年5月14日
【书籍】深度学习框架:PyTorch入门与实践(附代码)
专知会员服务
159+阅读 · 2019年10月28日
深度学习视频中多目标跟踪:论文综述
专知会员服务
89+阅读 · 2019年10月13日
干货 | 快速端到端嵌入学习用于视频中的目标分割
计算机视觉战队
10+阅读 · 2019年3月27日
一篇文章了解视频对象分割
AI前线
6+阅读 · 2017年11月29日
深度学习目标检测概览
AI研习社
46+阅读 · 2017年10月13日
一文带你入门视频目标分割(附数据集)
THU数据派
19+阅读 · 2017年10月10日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
Two Stream 3D Semantic Scene Completion
Arxiv
4+阅读 · 2018年7月16日
Arxiv
6+阅读 · 2018年3月29日
Arxiv
9+阅读 · 2018年1月30日
Arxiv
4+阅读 · 2018年1月19日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关资讯
干货 | 快速端到端嵌入学习用于视频中的目标分割
计算机视觉战队
10+阅读 · 2019年3月27日
一篇文章了解视频对象分割
AI前线
6+阅读 · 2017年11月29日
深度学习目标检测概览
AI研习社
46+阅读 · 2017年10月13日
一文带你入门视频目标分割(附数据集)
THU数据派
19+阅读 · 2017年10月10日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
相关论文
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
Two Stream 3D Semantic Scene Completion
Arxiv
4+阅读 · 2018年7月16日
Arxiv
6+阅读 · 2018年3月29日
Arxiv
9+阅读 · 2018年1月30日
Arxiv
4+阅读 · 2018年1月19日
Arxiv
5+阅读 · 2016年10月24日
Top
微信扫码咨询专知VIP会员