Universal domain adaptation (UniDA) aims to transfer the knowledge from a labeled source domain to an unlabeled target domain without any assumptions of the label sets, which requires distinguishing the unknown samples from the known ones in the target domain. A main challenge of UniDA is that the nonidentical label sets cause the misalignment between the two domains. Moreover, the domain discrepancy and the supervised objectives in the source domain easily lead the whole model to be biased towards the common classes and produce overconfident predictions for unknown samples. To address the above challenging problems, we propose a new uncertainty-guided UniDA framework. Firstly, we introduce an empirical estimation of the probability of a target sample belonging to the unknown class which fully exploits the distribution of the target samples in the latent space. Then, based on the estimation, we propose a novel neighbors searching scheme in a linear subspace with a $\delta$-filter to estimate the uncertainty score of a target sample and discover unknown samples. It fully utilizes the relationship between a target sample and its neighbors in the source domain to avoid the influence of domain misalignment. Secondly, this paper well balances the confidences of predictions for both known and unknown samples through an uncertainty-guided margin loss based on the confidences of discovered unknown samples, which can reduce the gap between the intra-class variances of known classes with respect to the unknown class. Finally, experiments on three public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.


翻译:通用域自适应 (UniDA) 旨在在没有标签集假设的情况下将来自标记源域的知识转移至未标记的目标域,这要求区分目标域中的未知样本和已知样本。UniDA 的主要挑战是不同的标签集导致两个域之间的不匹配。此外,域差异和源域的监督目标容易使整个模型偏向公共类别,并对未知样本产生过度自信的预测。为了解决上述挑战性问题,本文提出了一种新的不确定性引导下的 UniDA 框架。首先,我们引入了一种目标样本属于未知类的经验估计方法,它充分利用了潜在空间中的目标样本分布。然后,基于这个估计,我们提出了一种基于 $\delta$- filter 的线性子空间邻域搜索方案来估计目标样本的不确定性分数,从而发现未知样本。它充分利用了目标样本与源域中的邻居之间的关系,以避免域不匹配的影响。其次,本文通过基于发现的未知样本的置信度的不确定性引导边缘损失来平衡已知和未知样本的预测置信度,这可以减少已知类的内部方差与未知类之间的差距。最后,对三个公共数据集的实验证明,我们的方法显著优于现有的最先进方法。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2021年5月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
0+阅读 · 2023年5月16日
VIP会员
相关VIP内容
专知会员服务
29+阅读 · 2021年5月6日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员