Domain generalization (DG) aims to generalize a model trained on multiple source (i.e., training) domains to a distributionally different target (i.e., test) domain. In contrast to the conventional DG that strictly requires the availability of multiple source domains, this paper considers a more realistic yet challenging scenario, namely Single Domain Generalization (Single-DG), where only one source domain is available for training. In this scenario, the limited diversity may jeopardize the model generalization on unseen target domains. To tackle this problem, we propose a style-complement module to enhance the generalization power of the model by synthesizing images from diverse distributions that are complementary to the source ones. More specifically, we adopt a tractable upper bound of mutual information (MI) between the generated and source samples and perform a two-step optimization iteratively: (1) by minimizing the MI upper bound approximation for each sample pair, the generated images are forced to be diversified from the source samples; (2) subsequently, we maximize the MI between the samples from the same semantic category, which assists the network to learn discriminative features from diverse-styled images. Extensive experiments on three benchmark datasets demonstrate the superiority of our approach, which surpasses the state-of-the-art single-DG methods by up to 25.14%.


翻译:领域泛化(DG)旨在将在多个源(即训练)域上训练的模型泛化到分布不同的目标(即测试)域。与严格要求具有多个源域的传统DG不同,本文考虑了一个更为现实但具有挑战性的场景,即单域泛化(Single-DG),只有一个源域可用于训练。在这种情况下,有限的多样性可能会危及模型在未见过的目标域上的泛化。为了解决这个问题,我们提出了一个样式补充模块,通过合成来自不同分布的图像来增强模型的泛化能力,这些分布与源分布互补。更具体地说,我们采用了生成图像和源样本之间的互信息(MI)的可计算上限,并通过两步迭代优化来实现:(1)最小化每个样本对之间MI上限的近似,强迫生成图像与源样本的多样性;(2)随后,我们最大化相同语义类别的样本之间的MI,这有助于网络从多样式图像中学习具有区分性的特征。在三个基准数据集上的广泛实验证明了我们方法的优越性,超过了现有单-DG方法的最高达25.14%。

0
下载
关闭预览

相关内容

TPAMI 2021|VideoDG:首个视频领域泛化模型
专知会员服务
20+阅读 · 2021年12月31日
专知会员服务
25+阅读 · 2021年5月23日
专知会员服务
28+阅读 · 2020年10月24日
从ICML 2022看域泛化(Domain Generalization)最新进展
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
12+阅读 · 2021年6月29日
Arxiv
13+阅读 · 2021年3月29日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员