Multi-Source Domain Adaptation (MSDA) is a more practical domain adaptation scenario in real-world scenarios. It relaxes the assumption in conventional Unsupervised Domain Adaptation (UDA) that source data are sampled from a single domain and match a uniform data distribution. MSDA is more difficult due to the existence of different domain shifts between distinct domain pairs. When considering videos, the negative transfer would be provoked by spatial-temporal features and can be formulated into a more challenging Multi-Source Video Domain Adaptation (MSVDA) problem. In this paper, we address the MSVDA problem by proposing a novel Temporal Attentive Moment Alignment Network (TAMAN) which aims for effective feature transfer by dynamically aligning both spatial and temporal feature moments. TAMAN further constructs robust global temporal features by attending to dominant domain-invariant local temporal features with high local classification confidence and low disparity between global and local feature discrepancies. To facilitate future research on the MSVDA problem, we introduce comprehensive benchmarks, covering extensive MSVDA scenarios. Empirical results demonstrate a superior performance of the proposed TAMAN across multiple MSVDA benchmarks.


翻译:多源域适应方案(MSDA)是现实世界情景中更为实用的多源域适应方案(MSDA),它放松了传统不受监督域适应方案(UDA)的假设,即源数据是从单一领域抽样的,与统一的数据分布相匹配。由于不同域对子之间存在不同的域变化,MSDA更加困难。当考虑视频时,负转移会因空间-时间特征而引起,并可以形成更具挑战性的多源视频域适应问题。在本文中,我们提出一个新的时速加速动态移动调整网络(TAMAN),目的是通过动态地调整空间和时时空特征,有效转让地貌特征。TAMAN进一步构建了强大的全球时空特征,以当地高度保密和低差异为主域-内时间特征。为了便利今后对MSVDA问题的研究,我们引入了涵盖广泛的MSVDA设想方案的全面基准。Eprical结果显示拟议的TAMAN在多种MSVDA基准方面表现优。

0
下载
关闭预览

相关内容

专知会员服务
7+阅读 · 2021年4月4日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Arxiv
8+阅读 · 2021年10月28日
Arxiv
8+阅读 · 2020年8月30日
VIP会员
相关VIP内容
专知会员服务
7+阅读 · 2021年4月4日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Top
微信扫码咨询专知VIP会员