自监督学习通过从数据本身来获取监督信号,在视频表征学习领域展现出了巨大潜力。由于一些主流的方法容易受到背景信息的欺骗和影响,为了减轻模型对背景信息的依赖,我们提出通过添加背景来去除背景影响。具体而言,给定一个视频,我们从中随机选择一个静态帧,并将其添加到其它的每一帧中,以构建一个分散注意力的视频样本,然后要求模型拉近 分散注意力的视频样本与原始视频样本之间的特征距离,如此使得模型能够更好地抵抗背景的影响,而更多地关注运动变化。我们的方法命名为背景消除(Background Erasing,BE)。值得注意的是,我们的方法可以便捷地添加到大多数SOTA方法中。BE在MoCo的基础上,对具有严重背景偏见的数据集UCF101和HMDB51,分别带来了16.4%和19.1%的提升,而对具有较小背景偏见的数据集Diving48数据集带来了14.5%的提升。

https://www.zhuanzhi.ai/paper/14820cc4d73f0a98bb76c67c3cea6c3c

成为VIP会员查看完整内容
16

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
专知会员服务
20+阅读 · 2021年5月1日
专知会员服务
22+阅读 · 2021年5月1日
专知会员服务
16+阅读 · 2021年4月27日
【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
专知会员服务
19+阅读 · 2021年3月18日
专知会员服务
32+阅读 · 2021年3月7日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
训练目标检测模型只需要这 6 行代码
AI科技评论
8+阅读 · 2019年8月19日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
3+阅读 · 2018年4月10日
VIP会员
相关VIP内容
专知会员服务
20+阅读 · 2021年5月1日
专知会员服务
22+阅读 · 2021年5月1日
专知会员服务
16+阅读 · 2021年4月27日
【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
专知会员服务
19+阅读 · 2021年3月18日
专知会员服务
32+阅读 · 2021年3月7日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
相关资讯
微信扫码咨询专知VIP会员