虽然不同的神经模型在面对语义相关的数据时往往表现出相似的潜在空间,但这种内在的相似性并不总是立即可见。为了更好地理解这一现象,本文工作展示了如何通过比之前认为的更简单的转换,将从这些神经模块中学习到的表示在不同的预训练网络之间转换。这种方法的一个优点是能够使用标准的、易于理解的、具有封闭形式解决方案的代数过程来估计这些转换。该方法直接估计两个给定潜空间之间的转换,从而能够在没有额外训练的情况下有效地拼接编码器和解码器。广泛验证了这种翻译过程在不同实验环境下的适应性:在各种训练、领域、架构(如ResNet、CNN、ViT)和多个下游任务(分类、重建)中。本文展示了如何零样本缝合文本编码器和视觉解码器,反之亦然,在这种多模态设置中产生令人惊讶的良好分类性能。

https://www.zhuanzhi.ai/paper/2101f1710ab0f62f8e9ab0b44a940190

成为VIP会员查看完整内容
18

相关内容

【AAAI2023】不确定性感知的图像描述生成
专知会员服务
24+阅读 · 2022年12月4日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
35+阅读 · 2022年7月11日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【NeurIPS2021】用于视频分割的密集无监督学习
专知会员服务
14+阅读 · 2021年11月14日
专知会员服务
31+阅读 · 2021年7月15日
【AACL2020】自监督学习的自然语言处理
专知会员服务
51+阅读 · 2020年12月12日
专知会员服务
19+阅读 · 2020年12月11日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【ICML2020】对比多视角表示学习
专知
18+阅读 · 2020年6月28日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
115+阅读 · 2023年3月24日
Arxiv
16+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【AAAI2023】不确定性感知的图像描述生成
专知会员服务
24+阅读 · 2022年12月4日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
35+阅读 · 2022年7月11日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【NeurIPS2021】用于视频分割的密集无监督学习
专知会员服务
14+阅读 · 2021年11月14日
专知会员服务
31+阅读 · 2021年7月15日
【AACL2020】自监督学习的自然语言处理
专知会员服务
51+阅读 · 2020年12月12日
专知会员服务
19+阅读 · 2020年12月11日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
相关资讯
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【ICML2020】对比多视角表示学习
专知
18+阅读 · 2020年6月28日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员