Multi-source Domain Generalization (DG) measures a classifier's ability to generalize to new distributions of data it was not trained on, given several training domains. While several multi-source DG methods have been proposed, they incur additional complexity during training by using domain labels. Recent work has shown that a well-tuned Empirical Risk Minimization (ERM) training procedure, that is simply minimizing the empirical risk on the source domains, can outperform most existing DG methods. We identify several key candidate techniques to further improve ERM performance, such as better utilization of training data, model parameter selection, and weight-space regularization. We call the resulting method ERM++, and show it significantly improves the performance of DG on five multi-source datasets by over 5% compared to standard ERM, and beats state-of-the-art despite being less computationally expensive. Additionally, we demonstrate the efficacy of ERM++ on the WILDS-FMOW dataset, a challenging DG benchmark. We hope that ERM++ becomes a strong baseline for future DG research. Code is released at https://github.com/piotr-teterwak/erm_plusplus.


翻译:多源领域泛化(DG)衡量分类器在给定多个训练领域的情况下,对于其未经训练的新数据分布的泛化能力。尽管已经提出了几种多源DG方法,但它们在使用领域标签时会增加额外的复杂性。最新的研究表明,一种良好调整的经验风险最小化(ERM)训练程序,即在源领域上简单地最小化经验风险,可以超过大多数现有的DG方法。我们确定了几种关键的候选技术,以进一步提高ERM性能,例如更好地利用训练数据、模型参数选择和权重空间正则化。我们称之为ERM++并展示它在五个多源数据集上显著提高了DG性能,比标准ERM提高了5%以上,并超越了最先进的方法,同时计算代价更少。此外,我们还展示了ERM++在WILDS-FMOW数据集上的有效性,这是一个具有挑战性的DG基准。我们希望ERM++成为未来DG研究的强大基线。代码发布在https://github.com/piotr-teterwak/erm_plusplus。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年10月20日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
41+阅读 · 2020年12月1日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
从ICML 2022看域泛化(Domain Generalization)最新进展
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员