Unsupervised domain adaptation (DA) methods have focused on achieving maximal performance through aligning features from source and target domains without using labeled data in the target domain. Whereas, in the real-world scenario's it might be feasible to get labels for a small proportion of target data. In these scenarios, it is important to select maximally-informative samples to label and find an effective way to combine them with the existing knowledge from source data. Towards achieving this, we propose S$^3$VAADA which i) introduces a novel submodular criterion to select a maximally informative subset to label and ii) enhances a cluster-based DA procedure through novel improvements to effectively utilize all the available data for improving generalization on target. Our approach consistently outperforms the competing state-of-the-art approaches on datasets with varying degrees of domain shifts.


翻译:未经监督的域适应(DA)方法侧重于通过不使用目标域的标签数据而统一源域和目标域的特征,实现最大性能。在现实世界的情景中,为一小部分目标数据贴上标签可能是可行的。在这些情景中,必须选择最大程度的信息化样本来标签,并找到一种有效的方法将这些样本与源数据的现有知识结合起来。为了实现这一点,我们提议S$3$VAADA(美元3$VAAD),其中i)引入一个新颖的子模块标准,以选择标签中信息最丰富的子集。 (ii)通过创新的改进来加强基于组群的DA程序,以便有效利用所有可用数据来改进目标的概括化。我们的方法一贯优于不同程度的域变换数据集方面相互竞争的最新方法。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年1月21日
专知会员服务
52+阅读 · 2020年9月7日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
已删除
将门创投
3+阅读 · 2018年3月13日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月9日
Arxiv
5+阅读 · 2020年3月17日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关VIP内容
专知会员服务
25+阅读 · 2021年1月21日
专知会员服务
52+阅读 · 2020年9月7日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
已删除
将门创投
3+阅读 · 2018年3月13日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员