Unsupervised domain adaptation (UDA) addresses the problem of distribution shift between the unlabeled target domain and labelled source domain. While the single target domain adaptation (STDA) is well studied in both 2D and 3D vision literature, multi-target domain adaptation (MTDA) is barely explored for 3D data despite its wide real-world applications such as autonomous driving systems for various geographical and climatic conditions. We establish an MTDA baseline for 3D point cloud data by proposing to mix the feature representations from all domains together to achieve better domain adaptation performance by an ensemble average, which we call \emph{{\bf M}ixup {\bf Ens}emble {\bf A}verage} or {\bf \emph{MEnsA}}. With the mixed representation, we use a domain classifier to improve at distinguishing the feature representations of source domain from those of target domains in a shared latent space. In extensive empirical validations on the challenging PointDA-10 dataset, we showcase a clear benefit of our simple method over previous unsupervised STDA and MTDA methods by large margins (up to $17.10\%$ and $4.76\%$ on averaged over all domain shifts). We make the code publicly available \href{https://github.com/sinAshish/MEnsA_mtda}{here}\footnote{\url{https://github.com/sinAshish/MEnsA_mtda}}.


翻译:三维点云无监督多目标领域自适应的混合集成平均方法(\emph{MEnsA}) 翻译后的摘要: 无监督领域自适应(UDA)解决了未标记目标域和标记源域之间的分布偏移问题。虽然单一目标域自适应(STDA)已经在2D和3D视觉文献中得到广泛研究,但对于3D点云数据,多目标域自适应(MTDA)的研究却鲜有探讨,尽管它在各种地理和气候条件下的自动驾驶系统等实际应用中具有广泛的应用前景。我们通过提出将所有域的特征表示混合在一起,以通过集成平均方法获得更好的领域适应性能,建立了3D点云数据的MTDA基线,称之为“混合集成平均”或\emph{{\bf M}ixup {\bf Ens}emble {\bf A}verage},缩写为{\bf \emph{MEnsA}}。使用混合表示,我们使用域分类器提高在共享的潜在空间中区分源域特征表示和目标域特征表示的能力。在具有挑战性的PointDA-10数据集上进行了广泛的实证验证,我们展示了我们的简单方法相对于先前的无监督STDA和MTDA方法的明显优势(平均达到$17.10\%$和$4.76\%$的领域变化)。我们将代码公开发布,\href{https://github.com/sinAshish/MEnsA_mtda}{此处}\footnote{\url{https://github.com/sinAshish/MEnsA_mtda}}可以访问到代码。

0
下载
关闭预览

相关内容

专知会员服务
60+阅读 · 2020年3月19日
【资源】领域自适应相关论文、代码分享
专知
31+阅读 · 2019年10月12日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月19日
VIP会员
相关VIP内容
专知会员服务
60+阅读 · 2020年3月19日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员