We consider the novel problem of unsupervised domain adaptation of source models, without access to the source data for semantic segmentation. Unsupervised domain adaptation aims to adapt a model learned on the labeled source data, to a new unlabeled target dataset. Existing methods assume that the source data is available along with the target data during adaptation. However, in practical scenarios, we may only have access to the source model and the unlabeled target data, but not the labeled source, due to reasons such as privacy, storage, etc. In this work, we propose a self-training approach to extract the knowledge from the source model. To compensate for the distribution shift from source to target, we first update only the normalization parameters of the network with the unlabeled target data. Then we employ confidence-filtered pseudo labeling and enforce consistencies against certain transformations. Despite being very simple and intuitive, our framework is able to achieve significant performance gains compared to directly applying the source model on the target data as reflected in our extensive experiments and ablation studies. In fact, the performance is just a few points away from the recent state-of-the-art methods which use source data for adaptation. We further demonstrate the generalisability of the proposed approach for fully test-time adaptation setting, where we do not need any target training data and adapt only during test-time.


翻译:我们考虑了源模型不受监督的域适应的新问题,没有获得用于语义分割的源数据。未经监督的域适应旨在将一个在标签源数据上学到的模型适应到一个新的未标签目标数据集。现有方法假定,在适应过程中源数据与目标数据同时存在。然而,在实际情况下,我们可能只能获得源模型和未标签目标数据,但由于隐私、储存等原因而没有标签源数据。在这项工作中,我们提议了一种从源模型中提取知识的自我培训方法。为了补偿从源数据向目标的分布转移,我们首先只用未标签目标数据更新网络的正常化参数。然后,我们使用信任过滤的假标签和强制执行某些变异。尽管我们的框架非常简单和直观,但由于直接将源模型应用于我们广泛实验和对比研究中所反映的目标数据,我们的框架能够取得显著的业绩收益。事实上,为了补偿从源数据来源向目标的分布,我们首先只能用未标定的标准化参数更新网络参数,然后我们用最新的测试方法来测试是否完全调整。我们用任何测试数据。我们用什么测试方法来进一步测试调整。

0
下载
关闭预览

相关内容

Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员