The quantity and the quality of the training labels are central problems in high-resolution land-cover mapping with machine-learning-based solutions. In this context, weak labels can be gathered in large quantities by leveraging on existing low-resolution or obsolete products. In this paper, we address the problem of training land-cover classifiers using high-resolution imagery (e.g., Sentinel-2) and weak low-resolution reference data (e.g., MODIS -derived land-cover maps). Inspired by recent works in Deep Multiple Instance Learning (DMIL), we propose a method that trains pixel-level multi-class classifiers and predicts low-resolution labels (i.e., patch-level classification), where the actual high-resolution labels are learned implicitly without direct supervision. This is achieved with flexible pooling layers that are able to link the semantics of the pixels in the high-resolution imagery to the low-resolution reference labels. Then, the Multiple Instance Learning (MIL) problem is re-framed in a multi-class and in a multi-label setting. In the former, the low-resolution annotation represents the majority of the pixels in the patch. In the latter, the annotation only provides us information on the presence of one of the land-cover classes in the patch and thus multiple labels can be considered valid for a patch at a time, whereas the low-resolution labels provide us only one label. Therefore, the classifier is trained with a Positive-Unlabeled Learning (PUL) strategy. Experimental results on the 2020 IEEE GRSS Data Fusion Contest dataset show the effectiveness of the proposed framework compared to standard training strategies.


翻译:训练标签的数量与质量是基于机器学习解决方案的高分辨率土地覆盖制图的核心问题。在此背景下,可利用现有的低分辨率或过时产品大量收集弱标签。本文探讨了使用高分辨率影像(如Sentinel-2)与弱低分辨率参考数据(如MODIS衍生的土地覆盖图)训练土地覆盖分类器的问题。受深度多示例学习(DMIL)近期研究的启发,我们提出一种方法:训练像素级多类分类器并预测低分辨率标签(即斑块级分类),其中实际的高分辨率标签在无直接监督的情况下被隐式学习。这是通过灵活的池化层实现的,该层能够将高分辨率影像中的像素语义与低分辨率参考标签相关联。随后,多示例学习(MIL)问题被重构为多类与多标签两种设定。在前者中,低分辨率标注代表斑块内大多数像素的类别;在后者中,标注仅提供斑块内存在某土地覆盖类别的信息,因此同一斑块可对应多个有效标签,而低分辨率标签仅提供单一标签。为此,分类器采用正例-未标记学习(PUL)策略进行训练。在2020年IEEE GRSS数据融合竞赛数据集上的实验结果表明,相较于标准训练策略,所提框架具有显著优势。

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Arxiv
18+阅读 · 2021年3月16日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
VIP会员
相关资讯
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员