Domain adaptation aims to leverage a labeled source domain to learn a classifier for the unlabeled target domain with a different distribution. Previous methods mostly match the distribution between two domains by global or class alignment. However, global alignment methods cannot achieve a fine-grained class-to-class overlap; class alignment methods supervised by pseudo-labels cannot guarantee their reliability. In this paper, we propose a simple yet efficient domain adaptation method, i.e. Cycle Label-Consistent Network (CLCN), by exploiting the cycle consistency of classification label, which applies dual cross-domain nearest centroid classification procedures to generate a reliable self-supervised signal for the discrimination in the target domain. The cycle label-consistent loss reinforces the consistency between ground-truth labels and pseudo-labels of source samples leading to statistically similar latent representations between source and target domains. This new loss can easily be added to any existing classification network with almost no computational overhead. We demonstrate the effectiveness of our approach on MNIST-USPS-SVHN, Office-31, Office-Home and Image CLEF-DA benchmarks. Results validate that the proposed method can alleviate the negative influence of falsely-labeled samples and learn more discriminative features, leading to the absolute improvement over source-only model by 9.4% on Office-31 and 6.3% on Image CLEF-DA.
翻译:域适应旨在利用标签源域,以不同分布方式学习未贴标签目标域的分类器。 以往的方法大多通过全球或类对齐来匹配两个域之间的分布。 但是, 全球校准方法不能实现细分级到类重叠; 由伪标签监督的类比调整方法不能保证其可靠性。 在本文件中, 我们提出一个简单而有效的域调整方法, 即循环标签- 连接网络( CLCN), 利用分类标签的周期一致性, 该标签使用双倍跨度最接近的百分位分类程序来生成目标域歧视的可靠自我监督信号。 周期标签一致的损失加强了源样标签和伪标签的一致性, 从而导致源和目标域之间在统计上相似的潜在表达。 这一新的损失很容易被添加到任何几乎没有计算间接费用的现有分类网络中。 我们展示了我们对MDIST- USPS- SVHN、 Office- Office- Home and image CEF- DADA 绝对性指标的改进方法的有效性, 校验拟议方法可以减缓CEF- AS- AS- DRADADA Basimalimal bestal best 校 校 校准, 校 校 校 校 校准方法, 校准方法可以对反校 校 校 校正 校正 校正 校正 校验 校准方法, 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校