In this paper, we investigate if we could make the self-training -- a simple but popular framework -- work better for semi-supervised segmentation. Since the core issue in semi-supervised setting lies in effective and efficient utilization of unlabeled data, we notice that increasing the diversity and hardness of unlabeled data is crucial to performance improvement. Being aware of this fact, we propose to adopt the most plain self-training scheme coupled with appropriate strong data augmentations on unlabeled data (namely ST) for this task, which surprisingly outperforms previous methods under various settings without any bells and whistles. Moreover, to alleviate the negative impact of the wrongly pseudo labeled images, we further propose an advanced self-training framework (namely ST++), that performs selective re-training via selecting and prioritizing the more reliable unlabeled images. As a result, the proposed ST++ boosts the performance of semi-supervised model significantly and surpasses existing methods by a large margin on the Pascal VOC 2012 and Cityscapes benchmark. Overall, we hope this straightforward and simple framework will serve as a strong baseline or competitor for future works. Code is available at https://github.com/LiheYoung/ST-PlusPlus.


翻译:在本文中,我们研究我们是否能使自我培训 -- -- 一个简单但受欢迎的框架 -- -- 更好地促进半监督的分割。由于半监督环境中的核心问题在于有效和高效地利用未贴标签的数据,我们注意到,增加未贴标签数据的多样性和难度对于改善业绩至关重要。我们意识到这一事实,我们提议为这项任务采用最简单的自我培训计划,同时在未贴标签数据(即ST)上适当强化数据,这出人意料的是,在各种环境下,在没有任何钟声和哨声的情况下,比以往的方法要好。此外,为了减轻错误的假贴标签图像的负面影响,我们进一步提议一个先进的自我培训框架(即ST++),通过选择和优先排序更可靠的未贴标签图像进行选择性的再培训。因此,拟议的ST++将大大提升半超标的模型(即ST)的性能,并通过在Pascal VOC 2012 和 Cityscovers 基准上的大幅幅度超过现有方法。总体而言,我们希望这个简单和简单的框架将成为未来工作的强有力的基线或comitor.Yous. https/ amus/complubrus.

1
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【干货书】Python 编程,480页pdf
专知会员服务
238+阅读 · 2020年8月14日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
175+阅读 · 2019年10月11日
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Reliable Semantic Segmentation with Superpixel-Mix
Arxiv
0+阅读 · 2021年8月2日
Deep Co-Training for Semi-Supervised Image Segmentation
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
VIP会员
相关资讯
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员