Deep supervised models have an unprecedented capacity to absorb large quantities of training data. Hence, training on many datasets becomes a method of choice towards graceful degradation in unusual scenes. Unfortunately, different datasets often use incompatible labels. For instance, the Cityscapes road class subsumes all driving surfaces, while Vistas defines separate classes for road markings, manholes etc. We address this challenge by proposing a principled method for seamless learning on datasets with overlapping classes based on partial labels and probabilistic loss. Our method achieves competitive within-dataset and cross-dataset generalization, as well as ability to learn visual concepts which are not separately labeled in any of the training datasets. Experiments reveal competitive or state-of-the-art performance on two multi-domain dataset collections and on the WildDash 2 benchmark.


翻译:深层监督模型具有吸收大量培训数据的前所未有的能力。 因此, 许多数据集培训成为在异常场景中优雅降解的一种选择方法。 不幸的是, 不同的数据集往往使用不兼容的标签。 例如, 城市景路类分包了所有驾驶表层, Vistas 则为道路标识、 孔洞等分别确定了类别。 我们通过提出一个原则性方法来应对这一挑战, 以便根据部分标签和概率损失来无缝地学习以重叠分类的数据集。 我们的方法实现了竞争性的内置数据集和交叉数据集通用化,以及学习在任何培训数据集中没有单独标签的视觉概念的能力。 实验揭示了两个多域数据集集和野地达什 2 基准的竞争性或最新性表现。

0
下载
关闭预览

相关内容

专知会员服务
39+阅读 · 2020年9月6日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员