A core process in human cognition is analogical mapping: the ability to identify a similar relational structure between different situations. We introduce a novel task, Visual Analogies of Situation Recognition, adapting the classical word-analogy task into the visual domain. Given a triplet of images, the task is to select an image candidate B' that completes the analogy (A to A' is like B to what?). Unlike previous work on visual analogy that focused on simple image transformations, we tackle complex analogies requiring understanding of scenes. We leverage situation recognition annotations and the CLIP model to generate a large set of 500k candidate analogies. Crowdsourced annotations for a sample of the data indicate that humans agree with the dataset label ~80% of the time (chance level 25%). Furthermore, we use human annotations to create a gold-standard dataset of 3,820 validated analogies. Our experiments demonstrate that state-of-the-art models do well when distractors are chosen randomly (~86%), but struggle with carefully chosen distractors (~53%, compared to 90% human accuracy). We hope our dataset will encourage the development of new analogy-making models. Website: https://vasr-dataset.github.io/
翻译:人类认知中的核心过程是模拟绘图: 确定不同情况之间类似关系结构的能力。 我们引入了一个新任务, “ 情况识别视觉分析”, 将古典单词分析任务调整到视觉域 。 在三重图像中, 任务在于选择一个图像候选B' 完成类比的图像( A到 A' 是 B到什么? ) 。 与以往侧重于简单图像转换的视觉类比工作不同, 我们处理需要了解场景的复杂类比。 我们利用情况识别说明和 CLIP 模型来生成500公里的大型候选类比。 数据样本的集合源说明显示, 人类同意数据集标签~ 80%的时间( 摄氏度 25% ) 。 此外, 我们使用人类说明来创建3 820 个验证的类比的黄金标准数据集。 我们的实验显示, 当随机选择分心器( ~ 86% ) 时, 最先进的模型是不错的, 但是要与精心选择的分流器( ~ 53 % ), 而不是人类精确度 。 我们希望我们的数据模型将鼓励开发新的类比 。 。 http 。 。 。