To transfer the knowledge learned from a labeled source domain to an unlabeled target domain, many studies have worked on universal domain adaptation (UniDA), where there is no constraint on the label sets of the source domain and target domain. However, the existing UniDA methods rely on source samples with correct annotations. Due to the limited resources in the real world, it is difficult to obtain a large amount of perfectly clean labeled data in a source domain in some applications. As a result, we propose a novel realistic scenario named Noisy UniDA, in which classifiers are trained using noisy labeled data from the source domain as well as unlabeled domain data from the target domain that has an uncertain class distribution. A multi-head convolutional neural network framework is proposed in this paper to address all of the challenges faced in the Noisy UniDA at once. Our network comprises a single common feature generator and multiple classifiers with various decision bounds. We can detect noisy samples in the source domain, identify unknown classes in the target domain, and align the distribution of the source and target domains by optimizing the divergence between the outputs of the various classifiers. The proposed method outperformed the existing methods in most of the settings after a thorough analysis of the various domain adaption scenarios. The source code is available at \url{https://github.com/YU1ut/Divergence-Optimization}.


翻译:为了将源域中学习的知识转移到未标记的目标域中,许多研究都在进行通用领域适应(UniDA),其中不限制源域和目标域的标签集。然而,现有的UniDA方法依赖于具有正确注释的源样本。由于在某些应用中很难获得大量完全干净的标记数据,因此我们提出了一种称为Noisy UniDA的新颖现实情况,其中使用源域中的带有噪声的标记数据以及具有不确定类分布的目标域中的未标记域数据来训练分类器。本文提出了一个多头卷积神经网络框架,一次解决了Noisy UniDA所面临的所有挑战。我们的网络包括一个公共特征生成器和具有各种判定边界的多个分类器。我们可以检测源域中的噪声样本,识别目标域中的未知类,并通过优化各个分类器的输出之间的散度来对齐源域和目标域的分布。在详细分析各种领域适应情况后,我们的方法在大多数设置中优于现有方法。源代码可在 \url{https://github.com/YU1ut/Divergence-Optimization} 上获得。

0
下载
关闭预览

相关内容

【AAAI2023】少样本无监督域适应中的高层语义特征
专知会员服务
15+阅读 · 2023年1月8日
华东师大《无数据知识迁移》综述论文
专知会员服务
55+阅读 · 2022年1月6日
专知会员服务
41+阅读 · 2020年12月1日
ACL 2022 | 类增量学习的少样本命名实体识别
PaperWeekly
1+阅读 · 2022年8月30日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年6月5日
Arxiv
13+阅读 · 2021年3月29日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关VIP内容
【AAAI2023】少样本无监督域适应中的高层语义特征
专知会员服务
15+阅读 · 2023年1月8日
华东师大《无数据知识迁移》综述论文
专知会员服务
55+阅读 · 2022年1月6日
专知会员服务
41+阅读 · 2020年12月1日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员