The ability to generalize learned representations across significantly different visual domains, such as between real photos, clipart, paintings, and sketches, is a fundamental capacity of the human visual system. In this paper, different from most cross-domain works that utilize some (or full) source domain supervision, we approach a relatively new and very practical Unsupervised Domain Generalization (UDG) setup of having no training supervision in neither source nor target domains. Our approach is based on self-supervised learning of a Bridge Across Domains (BrAD) - an auxiliary bridge domain accompanied by a set of semantics preserving visual (image-to-image) mappings to BrAD from each of the training domains. The BrAD and mappings to it are learned jointly (end-to-end) with a contrastive self-supervised representation model that semantically aligns each of the domains to its BrAD-projection, and hence implicitly drives all the domains (seen or unseen) to semantically align to each other. In this work, we show how using an edge-regularized BrAD our approach achieves significant gains across multiple benchmarks and a range of tasks, including UDG, Few-shot UDA, and unsupervised generalization across multi-domain datasets (including generalization to unseen domains and classes).


翻译:在实际照片、剪贴画、绘画和草图等不同视觉领域中,将学习到的演示内容概括化的能力是人类视觉系统的基本能力。在本文中,与使用某些(或完整)源域监督的多数跨域工程不同,我们采用相对新而非常实用的、不受监督的域通用(UDG) 设置,在源域或目标域中都没有培训监督。我们的方法是基于自我监督地学习横跨域的桥梁(BRAD) -- -- 一个辅助桥梁域,并配有一套从每个培训领域向BRAD保存视觉(图像到图像)映射到BRAD的语义学。BRAD和图谱与大多数(终端到终端)共同学习,采用对比性自我监督的自我监督演示模型,将每个域与其源域或目标域的测得都一致,从而隐含地将所有域(见于或看不见的)与其它域相协调。在这项工作中,我们展示了如何使用边缘的BRAD方法,在多个统域中,包括不甚甚高的常规的域域域域中,在多个一般数据级之间取得重要的成果。

1
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
小样本学习跨域(Cross-domain)问题总结
极市平台
3+阅读 · 2020年11月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Domain Adaptation via Prompt Learning
Arxiv
0+阅读 · 2022年2月14日
Positive-Unlabeled Domain Adaptation
Arxiv
0+阅读 · 2022年2月11日
Arxiv
8+阅读 · 2021年10月28日
Arxiv
5+阅读 · 2018年10月23日
VIP会员
相关资讯
小样本学习跨域(Cross-domain)问题总结
极市平台
3+阅读 · 2020年11月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员