Semantic segmentation plays a fundamental role in a broad variety of computer vision applications, providing key information for the global understanding of an image. Yet, the state-of-the-art models rely on large amount of annotated samples, which are more expensive to obtain than in tasks such as image classification. Since unlabelled data is instead significantly cheaper to obtain, it is not surprising that Unsupervised Domain Adaptation reached a broad success within the semantic segmentation community. This survey is an effort to summarize five years of this incredibly rapidly growing field, which embraces the importance of semantic segmentation itself and a critical need of adapting segmentation models to new environments. We present the most important semantic segmentation methods; we provide a comprehensive survey on domain adaptation techniques for semantic segmentation; we unveil newer trends such as multi-domain learning, domain generalization, test-time adaptation or source-free domain adaptation; we conclude this survey by describing datasets and benchmarks most widely used in semantic segmentation research. We hope that this survey will provide researchers across academia and industry with a comprehensive reference guide and will help them in fostering new research directions in the field.


翻译:语义分解在广泛的计算机视觉应用中发挥着根本作用,为全球了解图像提供了关键信息。然而,最先进的模型依赖于大量附加说明的样本,这些样本比图像分类等任务更昂贵。由于未贴标签的数据比图像分类要便宜得多,因此获得无标签数据的成本要低得多,不足为奇的是,未受监管的域域适应在语义分解界界中取得了广泛成功。这项调查旨在总结这一惊人快速增长的域的五年情况,其中包括语义分解本身的重要性,以及使分解模型适应新环境的迫切需要。我们提出了最重要的语义分解方法;我们提供了关于用于语义分解的域适应技术的全面调查;我们公布了多域学习、域化、测试时间适应或无源域适应等新趋势;我们通过描述在语义分解分解研究中最广泛使用的数据集和基准来结束这项调查。我们希望这项调查将为学术界和工业界的研究人员提供全面的参考指南,并将帮助他们促进新的研究方向。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【资源】领域自适应相关论文、代码分享
专知
31+阅读 · 2019年10月12日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
16+阅读 · 2021年1月27日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
VIP会员
Top
微信扫码咨询专知VIP会员