Generalization to out-of-distribution (OOD) data is a capability natural to humans yet challenging for machines. This is because most statistical learning algorithms strongly rely on the i.i.d.~assumption on source/target data, while in practice the target data often come from a different distribution than the source data. Domain generalization (DG) aims to achieve OOD generalization by using only source data for model learning. Since first introduced in 2011, research in DG has made great progresses. In particular, intensive research in this topic has led to a broad spectrum of methodologies, e.g., those based on domain alignment, meta-learning, data augmentation, or ensemble learning, just to name a few; and has covered various applications such as object recognition, segmentation, action recognition, and person re-identification. In this paper, for the first time, a comprehensive literature review is provided to summarize the developments in DG in the past decade. Specifically, we first cover the background by formally defining DG and relating it to other research fields like domain adaptation and transfer learning. Second, we conduct a thorough review into existing methods and present a categorization based on their methodologies and motivations. Finally, we conclude this survey with insights and discussions on future research directions.


翻译:向分配外(OOD)数据概括化是人类的一种自然能力,但对于机器来说却具有挑战性。这是因为大多数统计学习算法都强烈依赖源/目标数据的i.d.-sumpation,而在实践中,目标数据往往来自与源数据不同的分配。DG(DG)的目的是通过仅使用源数据进行模型学习,实现OOD的概括化。自2011年首次引入以来,DG的研究取得了巨大进展。特别是,这个专题的密集研究导致了一系列广泛的方法,例如基于域对齐、元学习、数据增强或共同学习的方法,仅举几个例子;还涵盖各种应用,如对象识别、分解、行动识别和个人再识别。本文首次提供了全面的文献审查,以总结DG在过去十年中的发展动态。具体地说,我们首先通过正式界定DG,将其与其他研究领域相联系,例如域适应和转移学习。第二,我们对现有方法进行彻底审查,并最后根据它们的方法和动机对目前研究方向进行分类。

1
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
One-Class Classification: A Survey
Arxiv
7+阅读 · 2021年1月8日
Arxiv
27+阅读 · 2020年12月24日
An Attentive Survey of Attention Models
Arxiv
44+阅读 · 2020年12月15日
Arxiv
18+阅读 · 2020年10月9日
Arxiv
126+阅读 · 2020年9月6日
Arxiv
110+阅读 · 2020年2月5日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
One-Class Classification: A Survey
Arxiv
7+阅读 · 2021年1月8日
Arxiv
27+阅读 · 2020年12月24日
An Attentive Survey of Attention Models
Arxiv
44+阅读 · 2020年12月15日
Arxiv
18+阅读 · 2020年10月9日
Arxiv
126+阅读 · 2020年9月6日
Arxiv
110+阅读 · 2020年2月5日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Top
微信扫码咨询专知VIP会员