Multimodal representations and continual learning are two areas closely related to human intelligence. The former considers the learning of shared representation spaces where information from different modalities can be compared and integrated (we focus on cross-modal retrieval between language and visual representations). The latter studies how to prevent forgetting a previously learned task when learning a new one. While humans excel in these two aspects, deep neural networks are still quite limited. In this paper, we propose a combination of both problems into a continual cross-modal retrieval setting, where we study how the catastrophic interference caused by new tasks impacts the embedding spaces and their cross-modal alignment required for effective retrieval. We propose a general framework that decouples the training, indexing and querying stages. We also identify and study different factors that may lead to forgetting, and propose tools to alleviate it. We found that the indexing stage pays an important role and that simply avoiding reindexing the database with updated embedding networks can lead to significant gains. We evaluated our methods in two image-text retrieval datasets, obtaining significant gains with respect to the fine tuning baseline.


翻译:与人类智能密切相关的两个领域是多式表达和持续学习,前者考虑学习共享代表空间,从不同模式中可以比较和整合信息(我们注重语言和视觉表达之间的交叉模式检索),后者研究如何防止在学习新任务时忘记以前学到的任务。虽然人类在这两个方面表现出色,但深层神经网络仍然非常有限。在本文件中,我们建议将这两个问题合并成一个持续的跨模式检索环境,研究新任务造成的灾难性干扰如何影响嵌入空间及其有效检索所需的跨模式调整。我们提出了一个总框架,将培训、索引和查询阶段分离开来。我们还查明和研究可能导致遗忘的不同因素,并提出缓解这些因素的工具。我们发现,索引阶段可以发挥重要作用,而仅仅避免将数据库与更新的嵌入网络重新索引,就能带来重大收益。我们用两个图像-文字检索数据集评估了我们的方法,在精细的基线上取得了重大收益。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
Cross-Modal & Metric Learning 跨模态检索专题-2
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
18+阅读 · 2021年6月10日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关VIP内容
相关资讯
Cross-Modal & Metric Learning 跨模态检索专题-2
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员