Temporal Action Detection (时序动作检测)方向2017年会议论文整理

2017 年 11 月 30 日 极市平台 林天威
↑ 点击蓝字关注极市平台 识别先机 创造未来



来源:Video Analysis 论文笔记 - 知乎专栏

作者:林天威


关于Temporal Action Detection (Localization) 时序动作检测这一方向的介绍,可以参见这一篇文章: Video Analysis 相关领域解读之Temporal Action Detection(时序行为检测)

简单来说,temporal action detection是要在视频序列中确定动作发生的时间区间(包括开始时间与结束时间)以及动作的类别。类似于图像中的目标检测任务,时序动作检测也可以分为生成时间区间提名(temporal action proposal generation)以及对提名进行分类(action recognition)俩个环节。今年有不少工作针对前者设计了模型,也在这篇文章中一并讨论。



Temporal Action Detection


如前所述,该方向的任务是视频序列中确定动作发生的时间区间(包括开始时间与结束时间)以及动作的类别。最常用的数据库为THUMOS14, 其余常用的数据库还包括MEXaction2, ActivityNet 1.2/1.3 等。常用的测评指标为mAP ( mean Average Precision)。



[1] CDC: Convolutional-De-Convolutional Networks for Precise Temporal Action Localization in Untrimmed Videos(https://arxiv.org/abs/1703.01515


  • 发表会议:CVPR 2017 (oral)

  • 性能:THUMOS14 上的mAP@0.5 为 24.7%,ActvitiyNet 1.3测试集上的average mAP为 22.9%

  • @Showthem 在CVPR17上的工作。基于C3D(3D CNN网络)设计了一个卷积逆卷积网络,输入一小段视频,输出frame-level的动作类别概率。该网络主要是用来对temporal action detection中的动作边界进行微调,使得动作边界更加准确,从而提高mAP。由于基于了层数不多的C3D网络,该方法的速度非常快,可以达到500FPS。



[2] Temporal Action Detection with Structured Segment Networks(https://arxiv.org/abs/1704.06228


  • 发表会议:ICCV 2017

  • 性能:THUMOS14 上的mAP@0.5 为 29.8%,ActvitiyNet 1.3测试集上的average mAP为 28.28%

  • CUHK多媒体实验室的工作。这篇文章提出了一种时序动作提名算法TAG,以及后续的分类/边界回归网络 SSN。TAG在后面再讨论,SSN我认为值得参考的是其输入特征的设计(开始-中间-结束区间的三段式设计,今年不少工作也有类似的做法)以及其输出分数的设计(判断proposal是否完整的completeness classifier)。这篇文章对temporal action detection这个任务本身也进行了非常细致的讨论,值得一读。



[3] Temporal Action Localization by Structured Maximal Sums(https://arxiv.org/abs/1704.04671


  • 发表会议:CVPR 2017

  • 性能:THUMOS14 上的mAP@0.5 为17.8%

  • 这篇文章中,对视频中的每个类别生成三种序列:开始帧概率,中间帧概率,结束帧概率。再基于这些概率设计了一种Structured Maximal Sums(结构化最大和)算法来产生检测结果。这篇文章生成概率序列的思路非常值得参考,但是模型的构建不太合理(对temporal信息的建模不够),最终模型在数据库上的性能并不是很理想。



[4] Temporal Context Network for Activity Localization in Videos(https://arxiv.org/abs/1708.02349


  • 发表会议:ICCV 2017

  • 性能:THUMOS14 上的mAP@0.5 为 25.6%,ActvitiyNet 1.3测试集上的average mAP为 23.58%

  • 这篇文章的思路主要参考了Faster-RCNN的结构。对视频先用2stream网络提取特征序列,再用滑窗机制在视频中的每个位置生成多个不同尺寸的proposal,之后再对每个proposal训练一个action classifier和一个ranker来对proposal进行分类和排序。



[5] Cascaded Boundary Regression for Temporal Action Detection(https://arxiv.org/abs/1705.01180v1


  • 发表会议:BMVC 2017

  • 性能:THUMOS14 上的mAP@0.5 为 31.0%

  • 这篇文章同样先对视频提取特征产生特征序列,然后用滑窗机制产生proposal,之后使用MLP构建了一个分类器以及一个边界回归器,通过级联的边界回归来精确定位动作的时序边界。思路还是比较简单的,但是实验效果不错,应该是今年文章中在THUMOS上效果最好的,不过效果好也与它用了ActivityNet上预训练的模型来提取特征有关。



[6] R-C3D : Region Convolutional 3D Network for Temporal Activity Detection(https://arxiv.org/abs/1703.07814


  • 发表会议:ICCV 2017

  • 性能:THUMOS14 上的mAP@0.5 为 28.9%,ActvitiyNet 1.3测试集上的average mAP为 16.74%

  • 这篇文章同样采用了Faster-RCNN形式的思路,即先proposal,在roi-pooling,最后进行分类和边界回归。不过这篇文章采用了3D convnet来实现了end-to-end的训练,比较有趣。(上半年我也曾经想做类似的工作,结果发现自己的显卡显存跑不起来。。)



[7] Single Shot Temporal Action Detection(https://wzmsltw.github.io/acmmm_370.pdf


  • 发表会议:ACMMM 2017

  • 效果:THUMOS14 上的mAP@0.5 为 24.6%

  • 这篇论文是我今年投稿在ACMMM上的论文,主要参考了目标检测任务中的单阶段模型(如SSD 与 YOLO),通过时序卷积网络以及anchors机制,实现了无需proposal generation步骤的时序动作检测模型。



[8] End-to-End, Single-Stream Temporal Action Detection in Untrimmed Videos(http://vision.stanford.edu/pdf/buch2017bmvc.pdf


  • 发表会议:BMVC 2017

  • 效果:THUMOS14 上的mAP@0.5 为 29.2%

  • 使用了C3D来提取视频的特征,与SSAD相同,该方法同样不需要生成proposal,而是采用了anchor机制。这篇文章方法的核心模块是堆叠的GRU单元。由于使用的是C3D特征,所以这篇文章的方法速度也相当的快。



[9] Exploring Temporal Preservation Networks for Precise Temporal Action Localization(https://arxiv.org/abs/1708.03280


  • 发表会议:AAAI 2018

  • 效果:THUMOS14 上的mAP@0.5 为 27.6%

  • @杨科 的工作。该文提出的TPN模型是CDC[1] 方法的改进模型。在CDC中,在时间维度上存在上采样和下采样,存在一定的时序信息的丢失。而在TPN模型中,将普通的temporal convolution 替换为temporal preservation convolution 这一操作,能够在不进行时序池化操作的情况下获得同样大小的感受野而不缩短时序长度,从而更好得保留时序信息。



[10] SCC : Semantic Context Cascade for Efficient Action Detection


  • 发表会议:CVPR 2017

  • ActvitiyNet 1.3测试集上的average mAP为 19.3%

  • ActivityNet 数据集作者的文章。这篇文章主要通过探索动作-物体,动作-场景之间的关系来提高动作定位的精度



[11] Temporal Convolutional Networks for Action Segmentation and Detection(https://ivul.kaust.edu.sa/Documents/Publications/2017/SCC_Semantic%20Context%20Cascade%20for%20Efficient%20Action%20Detection.pdf


  • 发表会议:CVPR 2017

  • 效果:用了几个不太常见的小数据库,就不列举了

  • 这篇文章主要设计了一个基于时序卷积的卷积-逆卷积网络,来实现对视频帧的类别分类(作者管这个叫action segmentation,不过我觉得在一维的情况下用这个词感觉意义不大)。时序卷积能够比较好的学习长时间的时序模式,今年我也基本上都是使用时序卷积来做自己的工作,感觉比起RNN来更易搭建,调试与优化模型。



Temporal Action Proposal Generation


该任务的目标是生成一批有可能包含动作片断的时间区域,而不需要对时间区域进行动作分类。常用的数据库同样是THUMOS14以及ActivityNet 1.3 等。常用的测评指标为AR( Average Recall)。注意,实际上时序动作检测模型去掉分类功能一般都能用来做时序提名生成,此处则主要讨论独立的时序提名生成模型。



[12] Temporal Action Detection with Structured Segment Networks(https://arxiv.org/abs/1704.06228)


  • 发表会议:ICCV 2017

  • 性能:THUMOS14 上的AR@200 为48.9% (注意此处作者用的测评指标与之前该领域的测评指标略有不同,主要是阈值方面,统一指标下实测效果AR@200 为39.61%)

  • 这篇文章中提出了TAG (Temporal Action Grouping) 方法。该方法对视频中的每一帧都用actionness classifier判断其是动作的概率,再用多阈值聚类的方法生成proposals



[13] TURN TAP: Temporal Unit Regression Network for Temporal Action Proposals(https://arxiv.org/abs/1703.06189)


  • 发表会议:ICCV 2017

  • 性能:THUMOS14 上的AR@200 为43.02%

  • 该方法在模型上与[5] 基本相同,是同一个作者的工作。区别主要在于[13]为2分类,[5]为多分类;[5]中多了级联结构。这篇文章是今年该方向在THUMOS数据集上效果最好的。



[14] SST: Single-Stream Temporal Action Proposals(http://openaccess.thecvf.com/content_cvpr_2017/papers/Buch_SST_Single-Stream_Temporal_CVPR_2017_paper.pdf


  • 发表会议:CVPR 2017

  • 性能:THUMOS14 上的AR@200 为37.90%

  • 同样是ActivityNet 作者他们组的工作,事实上这个方向应该就是他们最先开始挖的坑。这篇文章采用了C3D特征,GRU编码以及anchors机制。它的核心claim是“Single-Stream" ,即它在处理t时刻的proposals只看t时刻及之前的特征,可以算是一种在线的算法吧。




小结



比起17年前,今年该方向的论文数量可以说是大大增长,各数据集上的指标也提高的分快,感觉明年论文也会很多。如前所述,时序动作检测可以分为提名和分类两个部分。分类这块这两年精度提高的很快,在不少数据集上都已经达到了相当高的准确率。然而目前检测的准确率还是比较低,所以我个人认为通过改善时序动作提名模型,可以大大提高检测的准确率。



*推荐文章*

Video Analysis 相关领域解读之Video Captioning(视频to文字描述)

Video Analysis相关领域介绍之Action Recognition

沈志强 如何让计算机自动生成稠密的视频描述



*注*:如有想加入极市专业CV开发者微信群(项目需求+分享),请填写申请表(链接:http://cn.mikecrm.com/wcotd9)或者在本公众号后台回复”加群“申请入群

登录查看更多
3

相关内容

【CVPR2020】时序分组注意力视频超分
专知会员服务
30+阅读 · 2020年7月1日
专知会员服务
109+阅读 · 2020年3月12日
【浙江大学】对抗样本生成技术综述
专知会员服务
91+阅读 · 2020年1月6日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
基于弱监督的视频时序动作检测的介绍
极市平台
30+阅读 · 2019年2月6日
【紫冬分享】基于人体骨架的行为识别
中国科学院自动化研究所
20+阅读 · 2019年1月18日
极市干货|高继扬-时序动作检测
极市平台
4+阅读 · 2018年7月17日
ETP:精确时序动作定位
极市平台
13+阅读 · 2018年5月25日
AAAI 2018 行为识别论文概览
极市平台
18+阅读 · 2018年3月20日
ActivityNet Challenge 2017 冠军方案分享
极市平台
4+阅读 · 2017年7月25日
Deep Learning for Deepfakes Creation and Detection
Arxiv
6+阅读 · 2019年9月25日
Object Detection in 20 Years: A Survey
Arxiv
48+阅读 · 2019年5月13日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Deep Learning for Generic Object Detection: A Survey
Arxiv
13+阅读 · 2018年9月6日
Arxiv
19+阅读 · 2018年5月17日
VIP会员
相关资讯
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
基于弱监督的视频时序动作检测的介绍
极市平台
30+阅读 · 2019年2月6日
【紫冬分享】基于人体骨架的行为识别
中国科学院自动化研究所
20+阅读 · 2019年1月18日
极市干货|高继扬-时序动作检测
极市平台
4+阅读 · 2018年7月17日
ETP:精确时序动作定位
极市平台
13+阅读 · 2018年5月25日
AAAI 2018 行为识别论文概览
极市平台
18+阅读 · 2018年3月20日
ActivityNet Challenge 2017 冠军方案分享
极市平台
4+阅读 · 2017年7月25日
Top
微信扫码咨询专知VIP会员