In the classic setting of unsupervised domain adaptation (UDA), the labeled source data are available in the training phase. However, in many real-world scenarios, owing to some reasons such as privacy protection and information security, the source data is inaccessible, and only a model trained on the source domain is available. This paper proposes a novel deep clustering method for this challenging task. Aiming at the dynamical clustering at feature-level, we introduce extra constraints hidden in the geometric structure between data to assist the process. Concretely, we propose a geometry-based constraint, named semantic consistency on the nearest neighborhood (SCNNH), and use it to encourage robust clustering. To reach this goal, we construct the nearest neighborhood for every target data and take it as the fundamental clustering unit by building our objective on the geometry. Also, we develop a more SCNNH-compliant structure with an additional semantic credibility constraint, named semantic hyper-nearest neighborhood (SHNNH). After that, we extend our method to this new geometry. Extensive experiments on three challenging UDA datasets indicate that our method achieves state-of-the-art results. The proposed method has significant improvement on all datasets (as we adopt SHNNH, the average accuracy increases by over 3.0% on the large-scaled dataset). Code is available at https://github.com/tntek/N2DCX.


翻译:在传统的不受监督的域适应(UDA)的经典设置中,在培训阶段就有标签源数据。然而,在许多现实世界情景中,由于隐私保护和信息安全等某些原因,源数据无法获取,只有经过源域培训的模型才能获得。本文件为这项具有挑战性的任务提出了一个全新的深度分组方法。为了在地貌层面进行动态组合,我们引入了在数据间几何结构中隐藏的额外限制,以协助这一过程。具体地说,我们提出了基于几何的限制,在附近地区命名了语义一致性(SCNNH),并利用它鼓励稳健的群集。为了实现这一目标,我们建造了每个目标数据的近邻,并将其作为基本组群单元,在地理测量上构建了我们的目标。此外,我们开发了一个更符合SCNNH的系统结构,增加了语义可信度限制,称为语义性超近距离的邻居(SHNNH)。之后,我们将我们的方法推广到这个新的地理测量方法。在三个具有挑战性的UDA数据集上进行广泛的实验,我们的方法在SHAx标准上实现了显著的精确度。

0
下载
关闭预览

相关内容

【视频】几何数据嵌入表示学习,74页ppt
专知会员服务
33+阅读 · 2020年7月24日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
73+阅读 · 2020年4月24日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
7+阅读 · 2020年8月7日
Arxiv
3+阅读 · 2020年2月5日
VIP会员
Top
微信扫码咨询专知VIP会员