Compared with tedious per-pixel mask annotating, it is much easier to annotate data by clicks, which costs only several seconds for an image. However, applying clicks to learn video semantic segmentation model has not been explored before. In this work, we propose an effective weakly-supervised video semantic segmentation pipeline with click annotations, called WeClick, for saving laborious annotating effort by segmenting an instance of the semantic class with only a single click. Since detailed semantic information is not captured by clicks, directly training with click labels leads to poor segmentation predictions. To mitigate this problem, we design a novel memory flow knowledge distillation strategy to exploit temporal information (named memory flow) in abundant unlabeled video frames, by distilling the neighboring predictions to the target frame via estimated motion. Moreover, we adopt vanilla knowledge distillation for model compression. In this case, WeClick learns compact video semantic segmentation models with the low-cost click annotations during the training phase yet achieves real-time and accurate models during the inference period. Experimental results on Cityscapes and Camvid show that WeClick outperforms the state-of-the-art methods, increases performance by 10.24% mIoU than baseline, and achieves real-time execution.


翻译:与单击单击单击分解语义类样本,从而节省了艰苦的语义分解努力。 由于详细语义分解模式不是通过点击获取的, 直接通过点击标签进行的培训导致分解预测不准确。 但是, 应用点击来学习视频语义分解模式之前还没有被探索过。 在这项工作中, 我们提出一个有效的微弱监督的视频语义分解管道, 配有点击注释, 称为 WeClick, 以节省人工的语义分解努力。 由于详细语义信息不是通过点击获取的, 直接通过点击标签进行分解培训, 导致分解预测差。 然而, 为了缓解这一问题, 我们设计了一个新颖的记忆流知识蒸馏战略, 利用大量未加标签的视频框中的时间信息( 记忆流) 。 通过估计动作向目标框架提炼邻近的预测, 称为 WeClick, 我们采用范拉知识分解模式压缩。 在本案中, WeClick 学习精密的视频语义分解模型模型, 在培训阶段中, 而不是实时和精确的分解模型, 在测试中, 我们的模型将显示10进市的运行中, 显示的运行中, 显示10 直观的运行的模型, 。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
32+阅读 · 2021年6月12日
专知会员服务
110+阅读 · 2020年3月12日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
已删除
生物探索
3+阅读 · 2018年2月10日
Arxiv
6+阅读 · 2018年6月21日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年6月12日
专知会员服务
110+阅读 · 2020年3月12日
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
已删除
生物探索
3+阅读 · 2018年2月10日
Top
微信扫码咨询专知VIP会员