当测试数据和训练数据的分布相似时,基于深度神经网络的方法已经取得了惊人的性能,但如果没有相似的分布,则性能可能表现很差。因此,消除训练和测试数据之间分布变化的影响对于构建具有良好性能的深度模型至关重要。传统的方法要么假设训练数据已知的异质性(例如域标签),要么假设不同域的容量近似相等。在本文中,我们考虑一个更具有挑战性的情况,即上述两种假设都不成立。为了解决这一问题,我们提出通过学习训练样本的权重来消除特征之间的依赖关系,这有助于深度模型摆脱虚假的相关性,从而更加关注区分性特征和标签之间的真实联系。大量的实验清楚地证明了我们的方法在多个分布泛化基准上的有效性,与最先进的同行相比。通过大量的分布泛化基准实验,包括PACS、VLCS、mist - m和NICO,我们证明了该方法的有效性,并与最新的同类方法进行了比较。
https://www.zhuanzhi.ai/paper/dd9a8778840b02be8c81aebac3c94263