我们研究了一组新的用于恢复损坏数据表示的逆问题。我们假设可以访问预训练过的表示学习网络R(x),该网络对干净的图像进行操作,比如CLIP。问题是恢复图像R(x)的表示,如果我们只给一个损坏的版本A(x),已知的正向算子A。我们提出了一种监督逆方法,使用对比目标,以获得高损坏图像的优秀表示。在我们的鲁棒表示上使用线性探针,在对各种类型的畸变图像(包括模糊、加性噪声和随机像素掩蔽)进行分类时,我们实现了比端到端监督基线更高的精度。我们在ImageNet的一个子集上进行评估,并观察到我们的方法对不同程度的失真具有鲁棒性。我们的方法优于端到端基线,即使在广泛的前向运算符中只有一小部分标记数据。

https://www.zhuanzhi.ai/paper/32e21201202305682f3015909f2c6243

成为VIP会员查看完整内容
9

相关内容

在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
【NeurIPS2021】学习用于分布外预测的因果语义表示
专知会员服务
17+阅读 · 2021年11月19日
【NeurIPS2021】去栅格化的矢量图识别
专知会员服务
15+阅读 · 2021年11月18日
【NeurIPS2021】对比主动推理
专知会员服务
29+阅读 · 2021年10月21日
专知会员服务
15+阅读 · 2021年10月11日
专知会员服务
6+阅读 · 2021年9月20日
专知会员服务
63+阅读 · 2021年4月11日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
干货|多重预训练视觉模型的迁移学习
全球人工智能
5+阅读 · 2017年12月19日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
17+阅读 · 2021年3月29日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
3+阅读 · 2019年3月26日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
【NeurIPS2021】学习用于分布外预测的因果语义表示
专知会员服务
17+阅读 · 2021年11月19日
【NeurIPS2021】去栅格化的矢量图识别
专知会员服务
15+阅读 · 2021年11月18日
【NeurIPS2021】对比主动推理
专知会员服务
29+阅读 · 2021年10月21日
专知会员服务
15+阅读 · 2021年10月11日
专知会员服务
6+阅读 · 2021年9月20日
专知会员服务
63+阅读 · 2021年4月11日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
相关资讯
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
干货|多重预训练视觉模型的迁移学习
全球人工智能
5+阅读 · 2017年12月19日
相关论文
微信扫码咨询专知VIP会员