"Self-training" has become a dominant method for semantic segmentation via unsupervised domain adaptation (UDA). It creates a set of pseudo labels for the target domain to give explicit supervision. However, the pseudo labels are noisy, sparse and do not provide any information about inter-pixel correlations. We regard inter-pixel correlation quite important because semantic segmentation is a task of predicting highly structured pixel-level outputs. Therefore, in this paper, we propose a method of transferring the inter-pixel correlations from the source domain to the target domain via a self-attention module. The module takes the prediction of the segmentation network as an input and creates a self-attended prediction that correlates similar pixels. The module is trained only on the source domain to learn the domain-invariant inter-pixel correlations, then later, it is used to train the segmentation network on the target domain. The network learns not only from the pseudo labels but also by following the output of the self-attention module which provides additional knowledge about the inter-pixel correlations. Through extensive experiments, we show that our method significantly improves the performance on two standard UDA benchmarks and also can be combined with recent state-of-the-art method to achieve better performance.


翻译:“ 自我训练” 已经成为通过不受监督的域适应( UDA) 进行语义分解的主要方法。 它为目标域创建了一组假标签, 以进行明确的监督。 但是, 假标签很吵, 稀少, 没有提供关于像素之间关联的任何信息。 我们认为, 象素之间的相关性非常重要, 因为语义分解是预测高度结构化像素级产出的一项任务。 因此, 在本文中, 我们提出一种方法, 将源域之间的像素相关性通过一个自我注意模块从源域转移到目标域。 该模块将分解网络的预测作为一种输入, 并创建一个与类似像素相关连的自学预测。 该模块只接受源域培训, 以学习域- 异性像素之间关联。 然后, 它被用于在目标域内对分解网络进行培训。 网络不仅从假标签中学习,, 而且还通过一个自我注意模块的输出来学习。 该模块提供了对用户间连接网络的附加知识, 并创建一个自学状态。 通过广泛的实验, 能够大大地改进我们的数据- 和标准性学方法, 。 通过两种方法, 改进我们的状态, 改进我们的状态 。

0
下载
关闭预览

相关内容

迁移学习简明教程,11页ppt
专知会员服务
105+阅读 · 2020年8月4日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员