Semantic segmentation of remote sensing images plays an important role in land resource management, yield estimation, and economic assessment. Even though the semantic segmentation of remote sensing images has been prominently improved by convolutional neural networks, there are still several limitations contained in standard models. First, for encoder-decoder architectures like U-Net, the utilization of multi-scale features causes overuse of information, where similar low-level features are exploited at multiple scales for multiple times. Second, long-range dependencies of feature maps are not sufficiently explored, leading to feature representations associated with each semantic class are not optimal. Third, despite the dot-product attention mechanism has been introduced and harnessed widely in semantic segmentation to model long-range dependencies, the high time and space complexities of attention impede the usage of attention in application scenarios with large input. In this paper, we proposed a Multi-Attention-Network (MANet) to remedy these drawbacks, which extracts contextual dependencies by multi efficient attention mechanisms. A novel attention mechanism named kernel attention with linear complexity is proposed to alleviate the high computational demand of attention. Based on kernel attention and channel attention, we integrate local feature maps extracted by ResNeXt-101 with their corresponding global dependencies, and adaptively signalize interdependent channel maps. Experiments conducted on two remote sensing image datasets captured by variant satellites demonstrate that the performance of our MANet transcends the DeepLab V3+, PSPNet, FastFCN, and other baseline algorithms.


翻译:遥感图像的语义分解在土地资源管理、产量估计和经济评估中起着重要作用。尽管遥感图像的语义分解通过神经神经网络得到显著改进,但标准模型中仍然有一些限制。首先,对于U-Net等编码器脱coder结构而言,多尺度特征的利用造成信息过度使用,在多个规模上多次利用类似的低级别特征。第二,对地貌图的长距离依赖性没有进行充分的探索,导致每个语系类的特征表征不是最佳的。第三,尽管在远程依赖性模型的语义分解中,引入并广泛利用了遥感图像的语义分解机制。首先,对于诸如U-Net等编码的编码解码-解码结构,使用多尺度特征造成信息过度使用,在多个规模上利用类似的低级别特征进行利用。第二,对地貌图的长距离依赖性,导致每个语系相匹配的语系特征表显示线性精度关注的新式注意机制。第三,尽管已引入了点-产品分量分解的分解分解分解机制,但是,通过高层次流路路段的流流流流流数据显示了对等流流流流流流数据的注意,也显示了对等流流流流流流流流流流流的注意,从而显示了我们进行了了对等流路路路路路路的注意。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【ECCV2020】OCRNet化解语义分割上下文信息缺失难题
专知会员服务
17+阅读 · 2020年8月24日
【ECCV2020】EfficientFCN:语义分割中的整体引导解码器
专知会员服务
16+阅读 · 2020年8月23日
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
84+阅读 · 2020年6月21日
专知会员服务
110+阅读 · 2020年3月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
CVPR2019 | 全景分割:Attention-guided Unified Network
极市平台
9+阅读 · 2019年3月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Arxiv
7+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年3月5日
VIP会员
Top
微信扫码咨询专知VIP会员