该框架是基于 CVPR 的论文 [3] 做的改进,因此我们称之为 SymmNets-V2. 相对于 McDalNets, SymmNets-V2 没有额外的 task classifier,而是将其与 classifiers for 域对齐进行了合并。 该方法在网络结构上的鲜明特点是将两个 classifiers 拼接到一起,并用拼接得到的 classifier 用作域对齐;通过这种方式,我们赋予了两个 classifiers 明确的 domain 信息,同时取得了更优的实验结果。SymmNets-V2 的优化目标如下: 其中 是分类损失,用来赋予 类别信息, 用来增大 的输出差异, 和 分别用来减小 在源域数据和目标域数据上的输出差异。其具体定义和与 MCSD 的联系请参考论文。对于熟悉 DANN [1] 的读者,可以将 SymmNets 看做将 category information 引入 DANN 的直接扩展。具体来说,如果我们分别将 中的所有类别当成整体,那么整体化之后的 就分别对应着 DANN 二分类 domain classifier 中的源域和目标域;这样 SymmNets 中的增大/减小 的输出差异就对应着 DANN 中的 domain discrimination/domain confusion. 将 DANN 二分类 domain classifier 中的源域和目标域扩展成由 拼接成的 2K 分类器,可以为在域对齐过程中引入 category information 做好模型结构准备。
实践方面 我们在 closed set, partial, and open set domain adaptation 三个任务共七个数据集上验证了我们提出的 McDalNets 和 SymmNets 的有效性。 相对 closed set 的任务,partial and open set domain adaptation 任务中的难度增大很大程度是两个域中共享类别的样本与其中一个域中独有类别的样本在 adaptation 过程中发生了错误对齐带来的;因此 SymmNets 中对 category information 的引入和对 category level alignment 的促进可以极大的缓解该错误对齐现象,从而对 partial 和 open set domain adaptation 带来帮助。 最后,我们通过如下的 t-SNE 可视化来说明我们提出的 SymmNets 的有效性。
参考文献
[1] Domain-Adversarial Training of Neural Networks, JMLR16 [2] Maximum Classifier Discrepancy for Unsupervised Domain Adaptation, CVPR18 [3] Domain-Symmetric Networks for Adversarial Domain Adaptation, CVPR19 [4] Unsupervised Domain Adaptation via Regularized Conditional Alignment, ICCV19 [5] Sliced wasserstein discrepancy for unsupervised domain adaptation, CVPR19 [6] Bridging Theory and Algorithm for Domain Adaptation, ICML19 [7] A theory of learning from different domains,ML10