Self-supervised learning aims to learn image feature representations without the usage of manually annotated labels. It is often used as a precursor step to obtain useful initial network weights which contribute to faster convergence and superior performance of downstream tasks. While self-supervision allows one to reduce the domain gap between supervised and unsupervised learning without the usage of labels, the self-supervised objective still requires a strong inductive bias to downstream tasks for effective transfer learning. In this work, we present our material and texture based self-supervision method named MATTER (MATerial and TExture Representation Learning), which is inspired by classical material and texture methods. Material and texture can effectively describe any surface, including its tactile properties, color, and specularity. By extension, effective representation of material and texture can describe other semantic classes strongly associated with said material and texture. MATTER leverages multi-temporal, spatially aligned remote sensing imagery over unchanged regions to learn invariance to illumination and viewing angle as a mechanism to achieve consistency of material and texture representation. We show that our self-supervision pre-training method allows for up to 24.22% and 6.33% performance increase in unsupervised and fine-tuned setups, and up to 76% faster convergence on change detection, land cover classification, and semantic segmentation tasks.


翻译:自我监督学习的目的是在不使用人工加注标签的情况下学习图像特征表征,而不用人工加注标签,这常常被用作获得有益的初始网络加权数的先导步骤,有助于更快地趋同和优异地完成下游任务。虽然自监督视野允许在不使用标签的情况下缩小受监督学习与不受监督学习之间的领域差距,但自我监督的目标仍要求对下游任务产生强烈的感应偏向,以进行有效的转移学习。在这项工作中,我们展示了以材料和纹理方法启发的以自我监督为基础的自监督方法(MATTER)的材料和纹理为基础的自我监督图像。材料和纹理可以有效地描述任何表面,包括其触觉特性、颜色和外观性。通过推广,有效的材料和纹理的表述可以描述与上述材料和纹理密切相关的其他语系类别。MATETER利用多种时空、空间一致的遥感图像,以学习对污蔑和透视角度作为实现材料和纹理一致性的机制。材料和纹理学方法可以有效描述任何表面,材料和纹理特性,材料和纹理的描述可以有效地描述任何表面,通过自我监督和分析,我们的业绩和自我监督,提高自我监督任务,提高自我分析,提高自我分析,改进,改进,改进,提高自我分析,改进,改进,改进,改进,改进,改进,改进自我监督,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,改进,

0
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
专知会员服务
54+阅读 · 2019年12月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
5+阅读 · 2020年10月22日
VIP会员
相关VIP内容
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
专知会员服务
54+阅读 · 2019年12月22日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员