In this paper, we study the problem of image-text matching. Inferring the latent semantic alignment between objects or other salient stuffs (e.g. snow, sky, lawn) and the corresponding words in sentences allows to capture fine-grained interplay between vision and language, and makes image-text matching more interpretable. Prior works either simply aggregate the similarity of all possible pairs of regions and words without attending differentially to more and less important words or regions, or use a multi-step attentional process to capture limited number of semantic alignments which is less interpretable. In this paper, we present Stacked Cross Attention to discover the full latent alignments using both image regions and words in sentence as context and infer the image-text similarity. Our approach achieves the state-of-the-art results on the MS-COCO and Flickr30K datasets. On Flickr30K, our approach outperforms the current best methods by 22.1% in text retrieval from image query, and 18.2% in image retrieval with text query (based on Recall@1). On MS-COCO, our approach improves sentence retrieval by 17.8% and image retrieval by 16.6% (based on Recall@1 using the 5K test set).


翻译:在本文中, 我们研究图像文本匹配问题 。 推断对象或其他突出的东西( 如雪、 天空、 草坪) 和句子中相应字词之间的潜在语义对齐( 如 雪、 天空、 草坪) 和对应词句之间的潜在语义对齐, 能够捕捉视觉和语言之间的细微交互作用, 并使图像文本匹配更加易解。 先前的作品要么只是将所有可能的区域和词对齐的相似性相加在一起, 而没有以不同的方式处理到更多、 不太重要的词或区域, 或者使用多步式的注意程序来捕捉数量有限的语义对齐( 较难解释的语义对齐) 。 在本文中, 我们展示了Sack Crost 注意, 以图像区域和句中的文字对齐( 以回回溯@ 1 为基础) 来发现全部潜在对齐 。 在 MS- CO1 中, 我们的方法实现了MS- CO1 和 Flick30K 数据设置的状态。 在 Flick30K 上, 我们的方法比当前的最佳方法更接近于从图像查询中恢复22.11%, 和18. 2 与图像检索 ( 以 16. 8 恢复 ) 。

3
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
107+阅读 · 2020年5月3日
专知会员服务
60+阅读 · 2020年3月19日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
计算机视觉最佳实践、代码示例和相关文档
专知会员服务
18+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
跨越注意力:Cross-Attention
我爱读PAMI
172+阅读 · 2018年6月2日
计算机视觉领域顶会CVPR 2018 接受论文列表
从2017年顶会论文看Attention Model
黑龙江大学自然语言处理实验室
5+阅读 · 2017年11月1日
已删除
将门创投
12+阅读 · 2017年10月13日
Arxiv
13+阅读 · 2018年4月6日
Arxiv
5+阅读 · 2017年7月23日
VIP会员
Top
微信扫码咨询专知VIP会员