Affect is often expressed via non-verbal body language such as actions/gestures, which are vital indicators for human behaviors. Recent studies on recognition of fine-grained actions/gestures in monocular images have mainly focused on modeling spatial configuration of body parts representing body pose, human-objects interactions and variations in local appearance. The results show that this is a brittle approach since it relies on accurate body parts/objects detection. In this work, we argue that there exist local discriminative semantic regions, whose "informativeness" can be evaluated by the attention mechanism for inferring fine-grained gestures/actions. To this end, we propose a novel end-to-end \textbf{Regional Attention Network (RAN)}, which is a fully Convolutional Neural Network (CNN) to combine multiple contextual regions through attention mechanism, focusing on parts of the images that are most relevant to a given task. Our regions consist of one or more consecutive cells and are adapted from the strategies used in computing HOG (Histogram of Oriented Gradient) descriptor. The model is extensively evaluated on ten datasets belonging to 3 different scenarios: 1) head pose recognition, 2) drivers state recognition, and 3) human action and facial expression recognition. The proposed approach outperforms the state-of-the-art by a considerable margin in different metrics.


翻译:在这项工作中,我们争论说,存在地方歧视性的语义区域,其“信息规范性”可由推断精细动作/行动的注意机制加以评估。为此,我们建议建立一个新型的端到端的图像空间配置,代表身体的姿势、人体物体的相互作用和当地外观的变化。结果显示,这是一个非常困难的方法,因为它依赖于精确的肢体部位/物体探测。在这项工作中,我们争论说,存在地方歧视性语义区域,其“信息规范性”可由推断精细动作/行动的注意机制加以评估。为此,我们建议建立一个新型的端到端的身体部分空间配置模型,代表身体的姿势、人体物体的相互作用和局部外观。一个完全进化的神经网络(CN),通过关注机制将多个背景区域结合在一起,侧重于与某项任务最相关的部分图像。我们区域由一个或多个连续的细胞组成,并且从用于计算HOG模型(方向的边缘动作/动作)所用的战略中加以调整。一个广泛的结构化的表态识别,一个不同的表态式的表态,一个不同的表态的表态,一个不同的表态化的表态化的表态,一个不同的表态化的表态的表态的表态的表态,一个表态化的表态化的表态化的表态化的表态化的表态化的表态化的表态化的表态被评估。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
专知会员服务
109+阅读 · 2020年3月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
CVPR 2019 | 34篇 CVPR 2019 论文实现代码
AI科技评论
21+阅读 · 2019年6月23日
CVPR 2019 | 重磅!34篇 CVPR2019 论文实现代码
AI研习社
11+阅读 · 2019年6月21日
CVPR2019年热门论文及开源代码分享
深度学习与NLP
7+阅读 · 2019年6月3日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Arxiv
5+阅读 · 2018年4月13日
VIP会员
Top
微信扫码咨询专知VIP会员