深度域自适应(DDA)方法在复杂域(如图像、结构数据和顺序数据)上具有更好的建模能力,其性能优于浅层模型。其基本思想是在一个潜在空间上学习领域不变表示,它可以在源域和目标域之间架起桥梁。一些理论研究建立了深刻的理解和学习领域不变特征的好处; 然而,它们通常仅限于没有标签迁移的情况,因此阻碍了它的适用性。在本文中,我们提出并研究了一种新的挑战性设置,该设置允许我们使用Wasserstein距离(WS)不仅量化数据偏移,而且直接定义标签偏移。我们进一步发展理论表明,减少数据的WS转变导致关闭之间的差距的源和目标数据分布的空间(例如,中间的一层深网),同时仍然能够量化的标签对这个潜在的空间转移。有趣的是,我们的理论可以解释学习领域不变特征在潜在空间上的某些缺陷。最后,基于已有理论的结果和指导,我们提出了标签匹配深度域自适应(LAMDA)方法,该方法在实际数据集上优于基准方法。