点击上方“CVer”,选择加"星标"或“置顶”
重磅干货,第一时间送达
本文作者:sisiyou
https://zhuanlan.zhihu.com/p/130388873
本文已由原作者授权,不得擅自二次转载
本文主要总结了最新的关于attention的应用文章。
Attention-based Dropout Layer for Weakly Supervised Object Localization(CVPR19)
链接:https://arxiv.org/abs/1908.10028
任务:弱监督的物体定位:只给定图像类别的标签,要求定位出目标所在的区域。
动机:只给定物体类别的话,网络往往只关注最具有判别性的信息,无法挖掘到整个物体信息。能否设计一种drop操作,每次迭代时drop最具判别性的信息,强迫网络关注其他的区域?
做法:代替之前采用CAM得到特征的热力图,模型使用(channel-wise pooling)直接生成热力图。采用一个设定的阈值,得到一个drop mask。
Visual Attention Consistency under Image Transforms for Multi-Label Image Classification (CVPR19)
链接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Guo_Visual_Attention_Consistency_Under_Image_Transforms_for_Multi-Label_Image_Classification_CVPR_2019_paper.pdf
任务:多标签图像分类问题
动机:数据增广被广泛用于图像分类任务,但是数据增广存在缺陷。图像的一些变换(如旋转)应该是比较渐层能学习到的,但是在一般使用数据增广的策略中,都只是使用最后loss来对这种变换进行学习。能否对数据增广学到的特征图进行约束。
方法:采用两分支结构。输入原始图像I和转换后的图像T(I),利用CAM得到两个特征图的热力图,约束I的热力图经过T的转换后与T(I)的热力图相同。即图像数据增广后仍然关注同样部件的区域。
AttPool: Towards Hierarchical Feature Representation in Graph Convolutional Networks via Attention Mechanism (ICCV19)
链接:http://openaccess.thecvf.com/content_ICCV_2019/html/Huang_AttPool_Towards_Hierarchical_Feature_Representation_in_Graph_Convolutional_Networks_via_ICCV_2019_paper.html
任务:定义了一个graph pooling操作。
方法:对于一个有N个节点的图(N,D),首先预测每个节点的得分(N),然后选择前K个节点(K,D),对这K个节点利用全部的N个节点进行更新(GCN)。
问题:和之前的文章Self-Attention Graph Pooling思想和做法很像,加了一步更新操作。
Group-wise Deep Object Co-Segmentation with Co-Attention Recurrent Neural Network (ICCV19)
任务:图像组间的共有物体的定位。
做法:设计了类似GRU的单元,设定了更新门和重置门,不断的更新隐单元g,使其融入了所有图像的信息,然后返回来指导每个图像的预测生成。
End-to-End Multi-Task Learning with Attention
链接:https://arxiv.org/abs/1803.10704
任务:多任务学习
动机:对于多任务学习,应该有任务共享的特征和任务特定的特征。对于任务共享的特征可以通过在所有任务上学习得到。那么如何得到任务特定的特征呢?
方法:对于每个任务学习一个attention,作为特征选择器,选择与该任务相关的特征。
See More, Know More: Unsupervised Video Object Segmentation with Co-Attention Siamese Networks (CVPR19)
链接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Lu_See_More_Know_More_Unsupervised_Video_Object_Segmentation_With_Co-Attention_CVPR_2019_paper.pdf
任务:无监督的视频物体分割
做法:提出了一个co-attention模块,将相邻帧对齐,并将F1(F2)帧的信息整合到F2(F1)上。
问题:用在视频reID上,相邻帧进行对齐后,再进行特征整合。
Improving Referring Expression Grounding with Cross-modal Attention-guided Erasing (CVPR19)
链接:https://arxiv.org/abs/1903.00839
任务:跨模态的检索。给定一个语句描述,检索出图像的那个框是与之对应的。
动机:图像与语句之中可能存在多个对应关系,但是现有方法往往会过多的关注最具有判别性的对应关系。能否有一种机制,迫使网络可以关注更多的对应关系。
做法:擦除最具有判别性的语句或者图像区域。
Cross-Modal Self-Attention Network for Referring Image Segmentation
论文:https://arxiv.org/abs/1904.04745
任务:跨模态分割,给定一个语句描述,分割出图像对应的物体区域。
做法:设计了一个扩模态的self attention机制,即对于query,key, value融入了图像特征和语句特征。
Mask-Guided Attention Network for Occluded Pedestrian Detection (ICCV19)
链接:https://arxiv.org/abs/1910.06160
任务:遮挡的行人检测
做法:遮挡会对行人检测的性能产生较大的影响。对于特征,生成一个空间mask,mask掉遮挡区域的特征。利用可见的bounding box监督mask的生成。
Looking for the Devil in the Details: Learning Trilinear Attention Sampling Network for Fine-grained Image Recognition (CVPR)
链接:https://arxiv.org/abs/1903.06150
动机:如何自适应地并且无监督的定位出物体各个部件的区域。每个channel可以响应一个特定的物体,但是单个channel的噪声大。能否整合channel使其可以定位出目标物体
做法:利用self-attention的思想,加强每个channel的特征。X为(C,N) .此时每个channel可以看做一个空间注意力图,对应一个指定的部件。
重磅!CVer-论文写作与投稿 交流群已成立
扫码添加CVer助手,可申请加入CVer-论文写作与投稿 微信交流群,目前已满1800+人,旨在交流顶会(CVPR/ICCV/ECCV/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)、SCI、EI等写作与投稿事宜。
同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如论文写作+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加微信群
▲长按关注CVer公众号
请给CVer一个在看!