Domain adaptation (DA) aims to transfer the knowledge learned from a source domain to an unlabeled target domain. Some recent works tackle source-free domain adaptation (SFDA) where only a source pre-trained model is available for adaptation to the target domain. However, those methods do not consider keeping source performance which is of high practical value in real world applications. In this paper, we propose a new domain adaptation paradigm called Generalized Source-free Domain Adaptation (G-SFDA), where the learned model needs to perform well on both the target and source domains, with only access to current unlabeled target data during adaptation. First, we propose local structure clustering (LSC), aiming to cluster the target features with its semantically similar neighbors, which successfully adapts the model to the target domain in the absence of source data. Second, we propose sparse domain attention (SDA), it produces a binary domain specific attention to activate different feature channels for different domains, meanwhile the domain attention will be utilized to regularize the gradient during adaptation to keep source information. In the experiments, for target performance our method is on par with or better than existing DA and SFDA methods, specifically it achieves state-of-the-art performance (85.4%) on VisDA, and our method works well for all domains after adapting to single or multiple target domains. Code is available in https://github.com/Albert0147/G-SFDA.


翻译:域适应(DA) 旨在将从源域到未贴标签的目标领域所学到的知识从源域向未贴标签的目标领域转移。最近的一些工作涉及无源域适应(SFDA),因为只有源预先培训的模型可用于适应目标领域。然而,这些方法并不考虑保持在现实世界应用中具有高实际价值的源性能。在本文件中,我们提出了一个新的域适应模式,称为“通用无源域适应(G-SF47DA) ”, 所学的模型需要在目标和源领域上表现良好,在适应期间只能查阅当前未贴标签的目标数据。首先,我们建议本地结构组合(LSC),目的是将目标特征与其语言上相似的邻居集中起来,在没有源数据的情况下成功地将模型调整到目标领域。第二,我们提议少用域注意(SDA),它产生一个二元域内的具体关注点,为不同领域启动不同的特性渠道,与此同时,将利用域关注在适应期间对梯度进行规范,以保持源信息。在试验中,我们的方法与现有的DA和SFA/SADA多域域的域域(GDA)和SFDA/DA的SBDA方法,具体是,在现有的单一域域域域内,它可以实现。

0
下载
关闭预览

相关内容

人工智能AI中台白皮书(2021年),45页pdf
专知会员服务
284+阅读 · 2021年9月18日
《AI新基建发展白皮书》,国家工信安全中心
专知会员服务
187+阅读 · 2021年1月23日
数字化健康白皮书,17页pdf
专知会员服务
107+阅读 · 2021年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
5+阅读 · 2020年3月17日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员