Disentangled representation learning remains challenging as ground truth factors of variation do not naturally exist. To address this, we present Vocabulary Disentanglement Retrieval~(VDR), a simple yet effective retrieval-based disentanglement framework that leverages nature language as distant supervision. Our approach is built upon the widely-used bi-encoder architecture with disentanglement heads and is trained on data-text pairs that are readily available on the web or in existing datasets. This makes our approach task- and modality-agnostic with potential for a wide range of downstream applications. We conduct experiments on 16 datasets in both text-to-text and cross-modal scenarios and evaluate VDR in a zero-shot setting. With the incorporation of disentanglement heads and a minor increase in parameters, VDR achieves significant improvements over the base retriever it is built upon, with a 9% higher on NDCG@10 scores in zero-shot text-to-text retrieval and an average of 13% higher recall in cross-modal retrieval. In comparison to other baselines, VDR outperforms them in most tasks, while also improving explainability and efficiency.


翻译:分解的演示学习仍然具有挑战性, 因为差异的地面真实因素自然并不存在。 为了解决这个问题, 我们提出词汇分解 Retrequention retalval~ (VDR), 这是一个简单而有效的基于检索的解剖框架, 将自然语言作为遥远的监督手段。 我们的方法建立在广泛使用的双编码结构上, 带有分解头, 并受过关于数据文本对对子的培训, 这些数据对子很容易在网络或现有数据集中找到。 这使得我们的方法任务和模式不可知性具有广泛下游应用的潜力。 我们用文本到文本和跨模式的情景对16个数据集进行实验, 并在零分位环境下对 VDR 进行评估。 随着分解头的整合和参数的微小增加, VDR在基础检索器上取得了显著的改进, 在零发文本到文本检索中的NDCG@ 10分中提高了9%, 在跨模式检索中的平均回回调率为13%。 与其他基线相比, VDR outperorfortis, 同时改进了大部分任务的效率。

0
下载
关闭预览

相关内容

NeurlPS 2022 | 自然语言处理相关论文分类整理
专知会员服务
47+阅读 · 2022年10月2日
专知会员服务
123+阅读 · 2020年9月8日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
会议交流 | IJCKG: International Joint Conference on Knowledge Graphs
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2023年2月14日
Arxiv
16+阅读 · 2021年11月27日
UNITER: Learning UNiversal Image-TExt Representations
Arxiv
23+阅读 · 2019年9月25日
Arxiv
19+阅读 · 2018年5月17日
VIP会员
相关资讯
相关论文
相关基金
Top
微信扫码咨询专知VIP会员