深度学习技术在取得优秀性能的同时,往往需要依赖大规模的标注数据。然而,对于所有感兴趣的目标任务都进行大规模的数据收集与标注是难以实现的。一种解决方案是将已有的源领域数据中的知识迁移到目标领域,以促进对目标领域任务的学习。Domain Generalization(DG)是其中的一个重要问题,DG的目的是从一个或多个源领域中学习模型,使之能够直接应用到未见过的目标领域上,并具有较强的泛化性能。

标准的DG问题假设所有源领域与目标领域都具有完全相同的标签集,然而这一假设在实际情况中很可能不成立。由于DG常常需要有多个源领域,而每一个源领域可能都是从不同渠道收集而来,对所有源领域具有完全相同标签集的假设会为源领域数据的收集带来困难。由于目标领域数据在训练阶段是不可见的,因此它与各源领域标签集之间的关系也应该是开放的。据此,我们放宽标准DG问题中所有源领域与目标领域都具有完全相同的标签集的假设,提出Open Domain Generalization(OpenDG) 问题。

图1 Open Domain Generalization问题示意图 该问题中各源领域可能拥有不同的标签集,目标领域中包含了某些源领域中出现过的类别,也可能存在源领域中没有出现过的类别。学习的目的是从这些开放场景下的源领域上得到泛化性能较强的模型,使之能够在推理过程中直接对目标领域数据进行正确分类。若目标领域样本属于源领域标签集中的类别,则模型应将其分为源领域中的具体的那一类;若目标领域样本的类别未在源领域中出现,则应将其分为“未知类”。

成为VIP会员查看完整内容
19

相关内容

专知会员服务
95+阅读 · 2021年5月25日
领域自适应研究综述
专知会员服务
54+阅读 · 2021年5月5日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
187+阅读 · 2021年2月4日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
专知会员服务
110+阅读 · 2020年3月20日
【伯克利-滴滴出行】深度学习多源领域自适应综述论文
专知会员服务
53+阅读 · 2020年2月28日
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
论文浅尝 | 基于知识图谱难度可控的多跳问题生成
开放知识图谱
5+阅读 · 2020年2月16日
【基于元学习的推荐系统】5篇相关论文
专知
11+阅读 · 2020年1月20日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
Arxiv
8+阅读 · 2020年10月7日
Arxiv
15+阅读 · 2019年4月4日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
VIP会员
相关主题
相关VIP内容
专知会员服务
95+阅读 · 2021年5月25日
领域自适应研究综述
专知会员服务
54+阅读 · 2021年5月5日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
187+阅读 · 2021年2月4日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
专知会员服务
110+阅读 · 2020年3月20日
【伯克利-滴滴出行】深度学习多源领域自适应综述论文
专知会员服务
53+阅读 · 2020年2月28日
相关资讯
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
论文浅尝 | 基于知识图谱难度可控的多跳问题生成
开放知识图谱
5+阅读 · 2020年2月16日
【基于元学习的推荐系统】5篇相关论文
专知
11+阅读 · 2020年1月20日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
相关论文
微信扫码咨询专知VIP会员