Learning discriminative representations for subtle localized details plays a significant role in Fine-grained Visual Categorization (FGVC). Compared to previous attention-based works, our work does not explicitly define or localize the part regions of interest; instead, we leverage the complementary properties of different stages of the network, and build a mutual refinement mechanism between the mid-level feature maps and the top-level feature map by our proposed Cross-layer Attention Network (CLAN). Specifically, CLAN is composed of 1) the Cross-layer Context Attention (CLCA) module, which enhances the global context information in the intermediate feature maps with the help of the top-level feature map, thereby improving the expressive power of the middle layers, and 2) the Cross-layer Spatial Attention (CLSA) module, which takes advantage of the local attention in the mid-level feature maps to boost the feature extraction of local regions at the top-level feature maps. Experimental results show our approach achieves state-of-the-art on three publicly available fine-grained recognition datasets (CUB-200-2011, Stanford Cars and FGVC-Aircraft). Ablation studies and visualizations are provided to understand our approach. Experimental results show our approach achieves state-of-the-art on three publicly available fine-grained recognition datasets (CUB-200-2011, Stanford Cars and FGVC-Aircraft).


翻译:在精密视觉分类(FGVC)中,对隐蔽的局部细节的学习有区别的表达方式发挥了重要作用。 与以往的以关注为基础的工作相比,我们的工作没有明确界定或确定感兴趣的部分区域;相反,我们利用网络不同阶段的补充性;我们利用网络不同阶段的互补性能,并在拟议中的跨层关注网络(CLAN)中建立中层地貌图与顶层地貌图之间的相互完善机制。具体地说,CLAN由1个跨层环境关注模块组成,该模块在高级地貌图的帮助下,加强了中间地貌图中的全球背景信息,从而改善了中间层的表达力;2 跨层空间关注模块,该模块利用中层地貌图中地方的注意,以在拟议中的跨层地貌图(CLOSLA)中推动对地方区域的地貌提取。 实验结果表明,我们的方法在三种公开提供的精细识别数据集(CUB-200-2011年、斯坦福克斯-Airal-Agrial-A-A-AA-A-AILA-A-A-A-A-C-C-C-C-C-C-C-C-Alivivial-Avial-As-As-As-As-As-As-A-As-A-A-As-As-As-A-A-As-As-As-A-A-A-A-As-As-C-C-C-C-C-C-C-Avivivivivivivivial-A-A-A-A-A-A-A-A-A-A-C-C-C-C-A-A-A-C-As-C-C-C-C-C-C-C-C-C-A-A-A-A-A-As-C-C-C-C-C-C-C-C-C-As-C-C-As-As-As-As-As-As-As-As-As-As-As-As-C-As-As-As-As-A-A-

0
下载
关闭预览

相关内容

专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
44+阅读 · 2020年10月31日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
13+阅读 · 2018年4月6日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员