Image-text matching is an interesting and fascinating task in modern AI research. Despite the evolution of deep-learning-based image and text processing systems, multi-modal matching remains a challenging problem. In this work, we consider the problem of accurate image-text matching for the task of multi-modal large-scale information retrieval. State-of-the-art results in image-text matching are achieved by inter-playing image and text features from the two different processing pipelines, usually using mutual attention mechanisms. However, this invalidates any chance to extract separate visual and textual features needed for later indexing steps in large-scale retrieval systems. In this regard, we introduce the Transformer Encoder Reasoning Network (TERN), an architecture built upon one of the modern relationship-aware self-attentive architectures, the Transformer Encoder (TE). This architecture is able to separately reason on the two different modalities and to enforce a final common abstract concept space by sharing the weights of the deeper transformer layers. Thanks to this design, the implemented network is able to produce compact and very rich visual and textual features available for the successive indexing step. Experiments are conducted on the MS-COCO dataset, and we evaluate the results using a discounted cumulative gain metric with relevance computed exploiting caption similarities, in order to assess possibly non-exact but relevant search results. We demonstrate that on this metric we are able to achieve state-of-the-art results in the image retrieval task. Our code is freely available at https://github.com/mesnico/TERN.


翻译:图像- 文本匹配是现代AI 研究中一项有趣和令人着迷的任务。 尽管基于深层学习的图像和文本处理系统的演变, 多式匹配仍然是一个挑战性的问题。 在这项工作中,我们考虑了为多式大规模信息检索任务匹配准确图像- 文本的问题。 图像- 文本匹配方面的最新结果是通过两个不同的处理管道的图像和文本特征实现的,通常使用相互注意机制。 然而,这使得在大型检索系统中提取以后的索引步骤所需的单独视觉和文字功能的任何机会都无效。 在这方面,我们引入了变换器/ Encoder 解释网络(TERN),这是建立在现代关系- 认知自我存储结构中的一种结构,即变换器 Encoder (TE)。 这个结构能够通过两种不同模式的互换图像和文本功能,通过分享更深变异层层层层的权重,执行最后共同的抽象概念空间。 由于这一设计, 执行的网络能够产生紧凑和非常丰富的视觉和文字特征。 在连续的索引- 索引- 上,我们 的索引- 的模型- 的模型- 上, 正在利用一个可获取的模型- 的模型- 获取到我们- 的模型- 的模型- 的模型- 获取到一个可获取到一个可获取到 的模型- 的序列- 的模型- 的模型- 的模型- 的模型- 上- 进行到一个可获取到一个可获取到的 的 的 的 的 的模型- 检索到我们 的 的 的 的 的 。

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
专知会员服务
312+阅读 · 2020年11月24日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【文本匹配】Question Answering论文
深度学习自然语言处理
8+阅读 · 2020年4月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】学习多视图相似度(ICCV-2017)
泡泡机器人SLAM
10+阅读 · 2018年10月7日
计算机视觉领域顶会CVPR 2018 接受论文列表
Arxiv
3+阅读 · 2018年3月21日
VIP会员
相关VIP内容
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
专知会员服务
312+阅读 · 2020年11月24日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Top
微信扫码咨询专知VIP会员