Fine-Grained Visual Classification (FGVC) remains a challenging task due to subtle inter-class differences and large intra-class variations. Existing approaches typically rely on feature-selection mechanisms or region-proposal strategies to localize discriminative regions for semantic analysis. However, these methods often fail to capture discriminative cues comprehensively while introducing substantial category-agnostic redundancy. To address these limitations, we propose H3Former, a novel token-to-region framework that leverages high-order semantic relations to aggregate local fine-grained representations with structured region-level modeling. Specifically, we propose the Semantic-Aware Aggregation Module (SAAM), which exploits multi-scale contextual cues to dynamically construct a weighted hypergraph among tokens. By applying hypergraph convolution, SAAM captures high-order semantic dependencies and progressively aggregates token features into compact region-level representations. Furthermore, we introduce the Hyperbolic Hierarchical Contrastive Loss (HHCL), which enforces hierarchical semantic constraints in a non-Euclidean embedding space. The HHCL enhances inter-class separability and intra-class consistency while preserving the intrinsic hierarchical relationships among fine-grained categories. Comprehensive experiments conducted on four standard FGVC benchmarks validate the superiority of our H3Former framework.


翻译:细粒度视觉分类(FGVC)由于类间差异细微且类内变化显著,仍是一项具有挑战性的任务。现有方法通常依赖特征选择机制或区域提议策略来定位判别性区域以进行语义分析。然而,这些方法往往难以全面捕捉判别性线索,同时引入大量与类别无关的冗余信息。为克服这些局限,我们提出了H3Former,一种新颖的令牌到区域框架,利用高阶语义关系,通过结构化区域级建模聚合局部细粒度表征。具体而言,我们设计了语义感知聚合模块(SAAM),该模块利用多尺度上下文线索动态构建令牌间的加权超图。通过应用超图卷积,SAAM能够捕获高阶语义依赖,并逐步将令牌特征聚合为紧凑的区域级表征。此外,我们引入了双曲层次对比损失(HHCL),该损失在非欧几里得嵌入空间中强制执行层次化语义约束。HHCL在保持细粒度类别间固有层次关系的同时,增强了类间可分性与类内一致性。在四个标准FGVC基准数据集上进行的全面实验验证了我们H3Former框架的优越性。

0
下载
关闭预览

相关内容

UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员