本文提出了从视频无监督的时空表示学习的大规模研究。借助对四个基于图像的最新框架的统一观点,我们研究了一个简单的目标,可以轻松地将所有这些方法推广到时空。我们的目标是鼓励在同一视频中使用时间上持久的特征,尽管它简单易用,但在以下情况下却表现出色:(i)不同的无监督框架,(ii)预训练数据集,(iii)下游数据集,以及(iv) 骨干架构。我们从这项研究中得出了一系列有趣的观察结果,例如,我们发现,即使跨度为60秒,鼓励长时间跨度的持久性也是有效的。除了在多个基准测试中得到的最新结果之外,我们还报告了一些有希望的案例,其中无监督的预训练可以胜过其有监督的预训练。

https://www.zhuanzhi.ai/paper/c814846601d2bda3489e56a681716b05

成为VIP会员查看完整内容
23

相关内容

专知会员服务
39+阅读 · 2021年5月16日
专知会员服务
21+阅读 · 2021年5月1日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
38+阅读 · 2021年4月9日
【CVPR2021】背景鲁棒的自监督视频表征学习
专知会员服务
17+阅读 · 2021年3月13日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
34+阅读 · 2020年4月5日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
2017上半年无监督特征学习研究成果汇总
全球人工智能
6+阅读 · 2017年9月12日
Grounding Spatio-Temporal Language with Transformers
Arxiv
0+阅读 · 2021年6月16日
Arxiv
9+阅读 · 2021年2月8日
VIP会员
相关VIP内容
专知会员服务
39+阅读 · 2021年5月16日
专知会员服务
21+阅读 · 2021年5月1日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
38+阅读 · 2021年4月9日
【CVPR2021】背景鲁棒的自监督视频表征学习
专知会员服务
17+阅读 · 2021年3月13日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
34+阅读 · 2020年4月5日
相关资讯
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
2017上半年无监督特征学习研究成果汇总
全球人工智能
6+阅读 · 2017年9月12日
相关论文
微信扫码咨询专知VIP会员