Deep learning semantic segmentation methods have shown promising performance for very high 1-m resolution land cover classification, but the challenge of collecting large volumes of representative training data creates a significant barrier to widespread adoption of such models for meter-scale land cover mapping over large areas. In this study, we present a novel label-efficient approach for statewide 1-m land cover classification using only 1,000 annotated reference image patches with self-supervised deep learning. We use the "Bootstrap Your Own Latent" pre-training strategy with a large amount of unlabeled color-infrared aerial images (377,921 256x256 1-m pixel patches) to pre-train a ResNet-101 convolutional encoder. The learned encoder weights were subsequently transferred into multiple deep semantic segmentation architectures (FCN, U-Net, Attention U-Net, DeepLabV3+, UPerNet, PAN), which were then fine-tuned using very small training dataset sizes with cross-validation (250, 500, 750 patches). Among the fine-tuned models, we obtained the 87.14% overall accuracy and 75.58% macro F1 score using an ensemble of the best performing U-Net models for comprehensive 1-m, 8-class land cover mapping, covering more than 123 billion pixels over the state of Mississippi, USA. Detailed qualitative and quantitative analysis revealed accurate mapping of open water and forested areas, while highlighting challenges in accurate delineation between cropland, herbaceous, and barren land cover types. These results show that self-supervised learning is an effective strategy for reducing the need for large volumes of manually annotated data, directly addressing a major limitation to high spatial resolution land cover mapping at scale.


翻译:深度学习的语义分割方法在1米极高分辨率土地覆盖分类中展现出良好性能,但收集大量代表性训练数据的挑战,严重阻碍了此类模型在大范围米级土地覆盖制图中的广泛应用。本研究提出一种新颖的少标注样本方法,仅使用1,000个带标注的参考图像块,结合自监督深度学习,实现州级1米土地覆盖分类。我们采用“Bootstrap Your Own Latent”预训练策略,利用大量未标注的彩色红外航空影像(377,921个256x256的1米像素块)预训练ResNet-101卷积编码器。学习到的编码器权重随后迁移至多个深度语义分割架构(FCN、U-Net、Attention U-Net、DeepLabV3+、UPerNet、PAN),并使用极小的训练数据集(通过交叉验证,分别为250、500、750个图像块)进行微调。在微调模型中,我们通过集成性能最优的U-Net模型,获得了87.14%的总体精度和75.58%的宏观F1分数,实现了对美国密西西比州超过1230亿像素的全面1米、8类土地覆盖制图。详细的定性与定量分析显示,该方法能准确绘制开阔水域和森林区域,同时凸显了在耕地、草本植被和裸地等土地覆盖类型间精确划分的挑战。这些结果表明,自监督学习是减少对大量人工标注数据需求的有效策略,直接解决了大规模高空间分辨率土地覆盖制图的一个主要限制。

0
下载
关闭预览

相关内容

[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
17+阅读 · 2024年5月23日
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
22+阅读 · 2023年5月10日
【CVPR2023】基于多标签证据学习的开放集行为识别
专知会员服务
27+阅读 · 2023年3月24日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
29+阅读 · 2021年6月7日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关VIP内容
[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
17+阅读 · 2024年5月23日
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
22+阅读 · 2023年5月10日
【CVPR2023】基于多标签证据学习的开放集行为识别
专知会员服务
27+阅读 · 2023年3月24日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
29+阅读 · 2021年6月7日
相关资讯
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员