We address the problem of text-guided video temporal grounding, which aims to identify the time interval of certain event based on a natural language description. Different from most existing methods that only consider RGB images as visual features, we propose a multi-modal framework to extract complementary information from videos. Specifically, we adopt RGB images for appearance, optical flow for motion, and depth maps for image structure. While RGB images provide abundant visual cues of certain event, the performance may be affected by background clutters. Therefore, we use optical flow to focus on large motion and depth maps to infer the scene configuration when the action is related to objects recognizable with their shapes. To integrate the three modalities more effectively and enable inter-modal learning, we design a dynamic fusion scheme with transformers to model the interactions between modalities. Furthermore, we apply intra-modal self-supervised learning to enhance feature representations across videos for each modality, which also facilitates multi-modal learning. We conduct extensive experiments on the Charades-STA and ActivityNet Captions datasets, and show that the proposed method performs favorably against state-of-the-art approaches.


翻译:我们处理文字引导视频时间定位问题,目的是根据自然语言描述确定某些事件的时间间隔。与大多数仅将 RGB 图像视为视觉特征的现有方法不同,我们提议了一个从视频中提取补充信息的多模式框架。具体地说,我们采用 RGB 图像作为外观、光学流动和图像结构深度图。虽然 RGB 图像为某些事件提供了丰富的视觉提示,但性能可能受到背景模糊的影响。因此,我们利用光学流以大型运动和深度地图为重点,在行动与可识别形状的物体相关时推断场景配置。为了更有效地整合三种模式,并使得相互学习成为工具,我们设计了一个动态融合方案,与变异器一起模拟各种模式之间的互动。此外,我们采用内部自监视式学习,以加强每种模式视频的特征表现,同时促进多模式学习。我们对Charades-STA和活动网络的数据集进行了广泛的实验,并显示拟议方法对状态-艺术方法的有利性表现。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
多模态视觉语言表征学习研究综述
专知会员服务
191+阅读 · 2020年12月3日
ICCV 2019 行为识别/视频理解论文汇总
极市平台
15+阅读 · 2019年9月26日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
已删除
将门创投
4+阅读 · 2018年7月31日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
VIP会员
相关资讯
ICCV 2019 行为识别/视频理解论文汇总
极市平台
15+阅读 · 2019年9月26日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
已删除
将门创投
4+阅读 · 2018年7月31日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Top
微信扫码咨询专知VIP会员