Learning to reject unknown samples (not present in the source classes) in the target domain is fairly important for unsupervised domain adaptation (UDA). There exist two typical UDA scenarios, i.e., open-set, and open-partial-set, and the latter assumes that not all source classes appear in the target domain. However, most prior methods are designed for one UDA scenario and always perform badly on the other UDA scenario. Moreover, they also require the labeled source data during adaptation, limiting their usability in data privacy-sensitive applications. To address these issues, this paper proposes a Universal Model ADaptation (UMAD) framework which handles both UDA scenarios without access to the source data nor prior knowledge about the category shift between domains. Specifically, we aim to learn a source model with an elegantly designed two-head classifier and provide it to the target domain. During adaptation, we develop an informative consistency score to help distinguish unknown samples from known samples. To achieve bilateral adaptation in the target domain, we further maximize localized mutual information to align known samples with the source classifier and employ an entropic loss to push unknown samples far away from the source classification boundary, respectively. Experiments on open-set and open-partial-set UDA scenarios demonstrate that UMAD, as a unified approach without access to source data, exhibits comparable, if not superior, performance to state-of-the-art data-dependent methods.


翻译:在目标域中学习拒绝未知样本(不在源类别中)对于不受监督的域适应(UDA)来说相当重要。存在两种典型 UDA情景,即开放设置和开放部分设置,后者假定并非所有源类别都出现在目标域中。然而,大多数先前的方法是为一个UDA情景设计的,并且总是对另一个UDA情景表现不佳。此外,它们还要求在适应过程中使用标签源数据,限制数据隐私敏感应用中的可用性。为解决这些问题,本文件提议了一个通用模型适应框架,处理UDA情景,既不使用源数据,又不事先了解不同域之间的类别变化。具体地说,我们的目标是学习一种源模型,使用优雅设计的双头分类器,并将它提供给目标域。在适应过程中,我们开发了一个信息性一致性评分,以帮助区分已知样本与已知样本的已知样本。为了在目标域中实现双边调整,我们进一步扩大本地化的相互信息,使已知样本与源分类师保持一致,并使用昆虫损失,将未知的样本推向远离开放源域的更高级版本,不显示UDADA的测试方法。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2020年12月1日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2018年11月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2018年11月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员