Hyperspectral image (HSI) classification faces critical challenges, including high spectral dimensionality, complex spectral-spatial correlations, and limited training samples with severe class imbalance. While CNNs excel at local feature extraction and transformers capture long-range dependencies, their isolated application yields suboptimal results due to quadratic complexity and insufficient inductive biases. We propose CLAReSNet (Convolutional Latent Attention Residual Spectral Network), a hybrid architecture that integrates multi-scale convolutional extraction with transformer-style attention via an adaptive latent bottleneck. The model employs a multi-scale convolutional stem with deep residual blocks and an enhanced Convolutional Block Attention Module for hierarchical spatial features, followed by spectral encoder layers combining bidirectional RNNs (LSTM/GRU) with Multi-Scale Spectral Latent Attention (MSLA). MSLA reduces complexity from $\mathcal{O}(T^2D)$ to $\mathcal{O}(T\log(T)D)$ by adaptive latent token allocation (8-64 tokens) that scales logarithmically with the sequence length. Hierarchical cross-attention fusion dynamically aggregates multi-level representations for robust classification. Experiments conducted on the Indian Pines and Salinas datasets show state-of-the-art performance, achieving overall accuracies of 99.71% and 99.96%, significantly surpassing HybridSN, SSRN, and SpectralFormer. The learned embeddings exhibit superior inter-class separability and compact intra-class clustering, validating CLAReSNet's effectiveness under limited samples and severe class imbalance.


翻译:高光谱图像(HSI)分类面临关键挑战,包括高光谱维度、复杂的光谱-空间相关性,以及训练样本有限且存在严重的类别不平衡。尽管卷积神经网络(CNN)擅长局部特征提取,而Transformer模型能够捕获长程依赖关系,但由于其二次复杂度和归纳偏置不足,单独应用这些方法往往导致次优结果。本文提出CLAReSNet(卷积潜在注意力残差光谱网络),这是一种混合架构,通过自适应潜在瓶颈将多尺度卷积提取与Transformer式注意力机制相融合。该模型采用具有深度残差块的多尺度卷积主干和增强的卷积块注意力模块,以提取层次化空间特征;随后通过光谱编码器层,将双向循环神经网络(LSTM/GRU)与多尺度光谱潜在注意力(MSLA)相结合。MSLA通过自适应潜在令牌分配(8-64个令牌),将复杂度从$\mathcal{O}(T^2D)$降低至$\mathcal{O}(T\log(T)D)$,该分配随序列长度呈对数缩放。层次化交叉注意力融合动态聚合多级表示,以实现鲁棒分类。在Indian Pines和Salinas数据集上进行的实验表明,该模型取得了最先进的性能,总体准确率分别达到99.71%和99.96%,显著超越了HybridSN、SSRN和SpectralFormer。学习到的嵌入表现出优异的类间分离性和紧凑的类内聚类,验证了CLAReSNet在有限样本和严重类别不平衡条件下的有效性。

0
下载
关闭预览

相关内容

在数学(特别是功能分析)中,卷积是对两个函数(f和g)的数学运算,产生三个函数,表示第一个函数的形状如何被另一个函数修改。 卷积一词既指结果函数,又指计算结果的过程。 它定义为两个函数的乘积在一个函数反转和移位后的积分。 并针对所有shift值评估积分,从而生成卷积函数。
【KDD2024】CAFO:基于特征的时间序列分类解释
专知会员服务
25+阅读 · 2024年6月5日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
VIP会员
相关论文
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员