We present an approach for encoding visual task relationships to improve model performance in an Unsupervised Domain Adaptation (UDA) setting. Semantic segmentation and monocular depth estimation are shown to be complementary tasks; in a multi-task learning setting, a proper encoding of their relationships can further improve performance on both tasks. Motivated by this observation, we propose a novel Cross-Task Relation Layer (CTRL), which encodes task dependencies between the semantic and depth predictions. To capture the cross-task relationships, we propose a neural network architecture that contains task-specific and cross-task refinement heads. Furthermore, we propose an Iterative Self-Learning (ISL) training scheme, which exploits semantic pseudo-labels to provide extra supervision on the target domain. We experimentally observe improvements in both tasks' performance because the complementary information present in these tasks is better captured. Specifically, we show that: (1) our approach improves performance on all tasks when they are complementary and mutually dependent; (2) the CTRL helps to improve both semantic segmentation and depth estimation tasks performance in the challenging UDA setting; (3) the proposed ISL training scheme further improves the semantic segmentation performance. The implementation is available at https://github.com/susaha/ctrl-uda.


翻译:我们提出了一种将视觉任务关系编码的方法,以改善在无人监督的DODA(UDA)环境中的模型性能; 语义分割和单眼深度估计被证明是互补的任务; 在多任务学习环境中,对其关系进行适当编码,可以进一步改进这两项任务的业绩。 我们以这一观察为动力,提出了一个新的跨任务关系(CTRL),其中将语义和深度预测之间的任务依赖性(CTRL)编码; 为了捕捉跨任务关系,我们提议了一个包含任务特定和跨任务改进头的神经网络结构。 此外,我们提议了一个循环性自我学习(ISL)培训计划,其中利用语义假标签对目标领域提供额外的监督。我们实验性地观察这两项任务绩效的改进,因为这些任务中存在的补充信息得到更好的捕捉。我们具体地表明:(1) 我们的方法在具有互补性和相互依赖性时改进所有任务的业绩;(2) CTRL帮助改进任务特定任务和跨任务改进的跨任务改进。 此外,我们提议在具有挑战性的UDA/SA(MA)部分的拟议SL) 改进SL(MA) 改进了现有的SL) ASA(MA) 培训/SA(MA) 设置。

1
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
VIP会员
相关VIP内容
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Top
微信扫码咨询专知VIP会员