Self-supervised learning (SSL) has recently become the favorite among feature learning methodologies. It is therefore appealing for domain adaptation approaches to consider incorporating SSL. The intuition is to enforce instance-level feature consistency such that the predictor becomes somehow invariant across domains. However, most existing SSL methods in the regime of domain adaptation usually are treated as standalone auxiliary components, leaving the signatures of domain adaptation unattended. Actually, the optimal region where the domain gap vanishes and the instance level constraint that SSL peruses may not coincide at all. From this point, we present a particular paradigm of self-supervised learning tailored for domain adaptation, i.e., Transferrable Contrastive Learning (TCL), which links the SSL and the desired cross-domain transferability congruently. We find contrastive learning intrinsically a suitable candidate for domain adaptation, as its instance invariance assumption can be conveniently promoted to cross-domain class-level invariance favored by domain adaptation tasks. Based on particular memory bank constructions and pseudo label strategies, TCL then penalizes cross-domain intra-class domain discrepancy between source and target through a clean and novel contrastive loss. The free lunch is, thanks to the incorporation of contrastive learning, TCL relies on a moving-averaged key encoder that naturally achieves a temporally ensembled version of pseudo labels for target data, which avoids pseudo label error propagation at no extra cost. TCL therefore efficiently reduces cross-domain gaps. Through extensive experiments on benchmarks (Office-Home, VisDA-2017, Digits-five, PACS and DomainNet) for both single-source and multi-source domain adaptation tasks, TCL has demonstrated state-of-the-art performances.


翻译:自监督学习(SSL)最近成为特性学习基准中最喜爱的。 因此, 它正在呼吁域级适应方法, 以考虑纳入 SSL。 直觉是执行实例层面的特征一致性, 以便让预测者在不同域间产生某种差异。 然而, 域适应制度中的大多数现有SSL 方法通常被视为独立的辅助组成部分, 使得域适应的标志不为人知。 事实上, 域差消失的最佳区域, 并且SSL peruses 可能完全不匹配的试例级限制 。 从这一点看, 我们展示了为域适应而定制的自我监督学习方法的典型范例, 以自我监督为主的学习模式, 即: 可传输的兼容性对比性学习( TCL), 将 SSSL 和所期望的跨域域域内兼容性兼容性连接起来。 我们发现对比性学习是适合域适应的选项, 因为它的假设可以方便地推广到跨级级级( ) 由域级级级调整任务支持。 因此, 在特定的记忆银行建设和伪标签战略上, TC 将跨级的跨级实验实验实验实验实验 将跨级的跨级实验实验 的校内校内校内校内校程实验, 的校内校内校内校内校内校内 校内 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校正 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程 校程

1
下载
关闭预览

相关内容

【微众银行】联邦学习白皮书_v2.0,48页pdf,
专知会员服务
166+阅读 · 2020年4月26日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
对比学习(Contrastive Learning)相关进展梳理
PaperWeekly
10+阅读 · 2020年5月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
8+阅读 · 2021年10月28日
Arxiv
5+阅读 · 2020年10月2日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
VIP会员
相关资讯
对比学习(Contrastive Learning)相关进展梳理
PaperWeekly
10+阅读 · 2020年5月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员