Attention最新进展

2020 年 5 月 22 日 CVer

点击上方“CVer”,选择加"星标"或“置顶”

重磅干货,第一时间送达

本文作者:sisiyou

https://zhuanlan.zhihu.com/p/130388873

本文已由原作者授权,不得擅自二次转载

本文主要总结了最新的关于attention的应用文章。

Attention-based Dropout Layer for Weakly Supervised Object Localization(CVPR19)

链接:https://arxiv.org/abs/1908.10028

任务:弱监督的物体定位:只给定图像类别的标签,要求定位出目标所在的区域。

动机:只给定物体类别的话,网络往往只关注最具有判别性的信息,无法挖掘到整个物体信息。能否设计一种drop操作,每次迭代时drop最具判别性的信息,强迫网络关注其他的区域?

做法:代替之前采用CAM得到特征的热力图,模型使用(channel-wise pooling)直接生成热力图。采用一个设定的阈值,得到一个drop mask。

Visual Attention Consistency under Image Transforms for Multi-Label Image Classification (CVPR19)

链接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Guo_Visual_Attention_Consistency_Under_Image_Transforms_for_Multi-Label_Image_Classification_CVPR_2019_paper.pdf

任务:多标签图像分类问题

动机:数据增广被广泛用于图像分类任务,但是数据增广存在缺陷。图像的一些变换(如旋转)应该是比较渐层能学习到的,但是在一般使用数据增广的策略中,都只是使用最后loss来对这种变换进行学习。能否对数据增广学到的特征图进行约束。

方法:采用两分支结构。输入原始图像I和转换后的图像T(I),利用CAM得到两个特征图的热力图,约束I的热力图经过T的转换后与T(I)的热力图相同。即图像数据增广后仍然关注同样部件的区域。

AttPool: Towards Hierarchical Feature Representation in Graph Convolutional Networks via Attention Mechanism (ICCV19)

链接:http://openaccess.thecvf.com/content_ICCV_2019/html/Huang_AttPool_Towards_Hierarchical_Feature_Representation_in_Graph_Convolutional_Networks_via_ICCV_2019_paper.html

任务:定义了一个graph pooling操作。

方法:对于一个有N个节点的图(N,D),首先预测每个节点的得分(N),然后选择前K个节点(K,D),对这K个节点利用全部的N个节点进行更新(GCN)。

问题:和之前的文章Self-Attention Graph Pooling思想和做法很像,加了一步更新操作。

Group-wise Deep Object Co-Segmentation with Co-Attention Recurrent Neural Network (ICCV19)

任务:图像组间的共有物体的定位。

做法:设计了类似GRU的单元,设定了更新门和重置门,不断的更新隐单元g,使其融入了所有图像的信息,然后返回来指导每个图像的预测生成。

End-to-End Multi-Task Learning with Attention

链接:https://arxiv.org/abs/1803.10704

任务:多任务学习

动机:对于多任务学习,应该有任务共享的特征和任务特定的特征。对于任务共享的特征可以通过在所有任务上学习得到。那么如何得到任务特定的特征呢?

方法:对于每个任务学习一个attention,作为特征选择器,选择与该任务相关的特征。

See More, Know More: Unsupervised Video Object Segmentation with Co-Attention Siamese Networks (CVPR19)

链接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Lu_See_More_Know_More_Unsupervised_Video_Object_Segmentation_With_Co-Attention_CVPR_2019_paper.pdf

任务:无监督的视频物体分割

做法:提出了一个co-attention模块,将相邻帧对齐,并将F1(F2)帧的信息整合到F2(F1)上。

问题:用在视频reID上,相邻帧进行对齐后,再进行特征整合。

Improving Referring Expression Grounding with Cross-modal Attention-guided Erasing (CVPR19)

链接:https://arxiv.org/abs/1903.00839

任务:跨模态的检索。给定一个语句描述,检索出图像的那个框是与之对应的。

动机:图像与语句之中可能存在多个对应关系,但是现有方法往往会过多的关注最具有判别性的对应关系。能否有一种机制,迫使网络可以关注更多的对应关系。

做法:擦除最具有判别性的语句或者图像区域。

Cross-Modal Self-Attention Network for Referring Image Segmentation

论文:https://arxiv.org/abs/1904.04745

任务:跨模态分割,给定一个语句描述,分割出图像对应的物体区域。

做法:设计了一个扩模态的self attention机制,即对于query,key, value融入了图像特征和语句特征。

Mask-Guided Attention Network for Occluded Pedestrian Detection (ICCV19)

链接:https://arxiv.org/abs/1910.06160

任务:遮挡的行人检测

做法:遮挡会对行人检测的性能产生较大的影响。对于特征,生成一个空间mask,mask掉遮挡区域的特征。利用可见的bounding box监督mask的生成。

Looking for the Devil in the Details: Learning Trilinear Attention Sampling Network for Fine-grained Image Recognition (CVPR)

链接:https://arxiv.org/abs/1903.06150

动机:如何自适应地并且无监督的定位出物体各个部件的区域。每个channel可以响应一个特定的物体,但是单个channel的噪声大。能否整合channel使其可以定位出目标物体

做法:利用self-attention的思想,加强每个channel的特征。X为(C,N)  .此时每个channel可以看做一个空间注意力图,对应一个指定的部件。

重磅!CVer-论文写作与投稿 交流群已成立


扫码添加CVer助手,可申请加入CVer-论文写作与投稿 微信交流群,目前已满1800+人,旨在交流顶会(CVPR/ICCV/ECCV/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)、SCI、EI等写作与投稿事宜。


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如论文写作+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加微信群


▲长按关注CVer公众号

请给CVer一个在看

登录查看更多
2

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
【人大】大规模知识图谱补全技术的研究进展
专知会员服务
86+阅读 · 2020年5月2日
基于深度学习的多标签生成研究进展
专知会员服务
142+阅读 · 2020年4月25日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
零样本图像分类综述 : 十年进展
专知会员服务
127+阅读 · 2019年11月16日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
用Attention玩转CV,一文总览自注意力语义分割进展
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
【领域报告】小样本学习年度进展|VALSE2018
深度学习大讲堂
26+阅读 · 2018年6月14日
从YOLOv1到YOLOv3,目标检测的进化之路
AI100
9+阅读 · 2018年6月4日
注意力机制(Attention Mechanism)在自然语言处理中的应用
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
3+阅读 · 2018年3月29日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
【人大】大规模知识图谱补全技术的研究进展
专知会员服务
86+阅读 · 2020年5月2日
基于深度学习的多标签生成研究进展
专知会员服务
142+阅读 · 2020年4月25日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
零样本图像分类综述 : 十年进展
专知会员服务
127+阅读 · 2019年11月16日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
相关资讯
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
用Attention玩转CV,一文总览自注意力语义分割进展
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
【领域报告】小样本学习年度进展|VALSE2018
深度学习大讲堂
26+阅读 · 2018年6月14日
从YOLOv1到YOLOv3,目标检测的进化之路
AI100
9+阅读 · 2018年6月4日
注意力机制(Attention Mechanism)在自然语言处理中的应用
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
相关论文
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
3+阅读 · 2018年3月29日
Arxiv
19+阅读 · 2018年3月28日
Top
微信扫码咨询专知VIP会员