Attempt to fully explore the fine-grained temporal structure and global-local chronological characteristics for self-supervised video representation learning, this work takes a closer look at exploiting the temporal structure of videos and further proposes a novel self-supervised method named Temporal Contrastive Graph (TCG). In contrast to the existing methods that randomly shuffle the video frames or video snippets within a video, our proposed TCG roots in a hybrid graph contrastive learning strategy to regard the inter-snippet and intra-snippet temporal relationships as self-supervision signals for temporal representation learning. Inspired by the neuroscience studies that the human visual system is sensitive to both local and global temporal changes, our proposed TCG integrates the prior knowledge about the frame and snippet orders into temporal contrastive graph structures, i.e., the intra-/inter- snippet temporal contrastive graph modules, to well preserve the local and global temporal relationships among video frame-sets and snippets. By randomly removing edges and masking node features of the intra-snippet graphs or inter-snippet graphs, our TCG can generate different correlated graph views. Then, specific contrastive losses are designed to maximize the agreement between node embeddings in different views. To learn the global context representation and recalibrate the channel-wise features adaptively, we introduce an adaptive video snippet order prediction module, which leverages the relational knowledge among video snippets to predict the actual snippet orders. Extensive experimental results demonstrate the superiority of our TCG over the state-of-the-art methods on large-scale action recognition and video retrieval benchmarks.


翻译:为了充分探索自我监督的视频代表制学习的细微时间结构和全球-本地时间顺序特征,这项工作更仔细地审视了利用视频的时间结构,并进一步提出了一种全新的自我监督方法,名为“时间对立图 ” (TCG)。 与在视频中随机调整视频框架或视频片段的现有方法相比,我们提议的TCG根根根植于一个混合图形对比学习战略,将机组间和机组内时间关系视为时间代表制学习的自我监督信号。根据神经科学研究,人类实际视觉系统对本地和全球的时间变化都十分敏感,我们提议的TCG将先前对框架和片断顺序的了解纳入时间对比图形结构,即,在视频框架设置和片断间时间关系之间保持本地和全球间的时间关系。通过随机删除图像和机组内时间关系作为时间代表制学习的自我监督信号。由于神经科学研究,人类实际视觉系统对本地和全球时间变化的直线段结构结构进行了敏感度分析,我们所设计的直径直径直系关系和直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直对面的观察,因此可以对地进行不同的直对地进行学习。

0
下载
关闭预览

相关内容

【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
76+阅读 · 2021年1月30日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
专知会员服务
53+阅读 · 2019年12月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
14+阅读 · 2021年3月10日
VIP会员
Top
微信扫码咨询专知VIP会员