大多数的对象识别方法主要侧重于学习有判别性的视觉模式,而忽略了整体的物体结构。尽管很重要,但结构建模通常需要大量的手工注释,因此是劳动密集型的。在这篇论文中,我们提出通过将自我监督纳入传统的框架中来“观察对象”(明确而内在地对对象结构建模)。我们证明了在不增加额外注释和推理速度的情况下,识别主干可以被显著增强,从而实现更健壮的表示学习。具体来说,我们首先提出了一个对象范围学习模块,用于根据同一类别中实例间共享的视觉模式对对象进行本地化。然后,我们设计了一个空间上下文学习模块,通过预测范围内的相对位置,对对象的内部结构进行建模。这两个模块可以很容易地插入到任何骨干网络训练和分离的推理时间。大量的实验表明,我们的内视对象方法(LIO)在许多基准上获得了巨大的性能提升,包括通用对象识别(ImageNet)和细粒度对象识别任务(CUB、Cars、Aircraft)。我们还表明,这种学习范式可以高度泛化到其他任务,如对象检测和分割(MS COCO)。

成为VIP会员查看完整内容
42

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
【斯坦福大学博士论文】自监督场景表示学习, 97页pdf
专知会员服务
93+阅读 · 2020年6月19日
专知会员服务
41+阅读 · 2020年2月20日
ICCV 2019 | 精确的端到端的弱监督目标检测网络
AI科技评论
11+阅读 · 2019年12月9日
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
【CVPR2018】物体检测中的结构推理网络
深度学习大讲堂
6+阅读 · 2018年7月30日
行人对齐+重识别网络(论文解读)
极市平台
7+阅读 · 2017年10月11日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
13+阅读 · 2017年12月5日
VIP会员
相关VIP内容
【斯坦福大学博士论文】自监督场景表示学习, 97页pdf
专知会员服务
93+阅读 · 2020年6月19日
专知会员服务
41+阅读 · 2020年2月20日
相关资讯
ICCV 2019 | 精确的端到端的弱监督目标检测网络
AI科技评论
11+阅读 · 2019年12月9日
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
【CVPR2018】物体检测中的结构推理网络
深度学习大讲堂
6+阅读 · 2018年7月30日
行人对齐+重识别网络(论文解读)
极市平台
7+阅读 · 2017年10月11日
微信扫码咨询专知VIP会员