The World Wide Web has become a popular source for gathering information and news. Multimodal information, e.g., enriching text with photos, is typically used to convey the news more effectively or to attract attention. Photo content can range from decorative, depict additional important information, or can even contain misleading information. Therefore, automatic approaches to quantify cross-modal consistency of entity representation can support human assessors to evaluate the overall multimodal message, for instance, with regard to bias or sentiment. In some cases such measures could give hints to detect fake news, which is an increasingly important topic in today's society. In this paper, we introduce a novel task of cross-modal consistency verification in real-world news and present a multimodal approach to quantify the entity coherence between image and text. Named entity linking is applied to extract persons, locations, and events from news texts. Several measures are suggested to calculate cross-modal similarity for these entities using state of the art approaches. In contrast to previous work, our system automatically gathers example data from the Web and is applicable to real-world news. Results on two novel datasets that cover different languages, topics, and domains demonstrate the feasibility of our approach. Datasets and code are publicly available to foster research towards this new direction.


翻译:万维网已成为收集信息和新闻的流行来源。多模式信息,例如用照片丰富文字,通常用来更有效地传播新闻或吸引关注。照片内容可以是装饰、描述更多重要信息,甚至可以包含误导信息。因此,实体代表的跨模式一致性的自动量化方法可以支持人类评估员评估整个多式联运信息,例如,在偏见或情绪方面。在某些情况下,这类措施可以提供提示,以探测假新闻,这是当今社会日益重要的主题。在本文中,我们引入了一个新颖的任务,即对现实世界新闻进行跨模式一致性核查,并提出一种多式方法,量化实体在图像和文本之间的一致性。名称实体链接用于从新闻文本中提取人员、地点和事件。建议采取若干措施计算这些实体使用最新方式的跨模式相似性。与以往的工作不同,我们的系统自动从网上收集实例数据,并适用于现实世界新闻。两种新数据集的结果涉及不同的语言、专题和领域,可以促进公众研究的这一方法。

0
下载
关闭预览

相关内容

【KDD2020教程】多模态网络表示学习
专知会员服务
130+阅读 · 2020年8月26日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
80+阅读 · 2020年7月26日
已删除
将门创投
7+阅读 · 2019年10月15日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2020年11月30日
Arxiv
6+阅读 · 2020年2月15日
Arxiv
10+阅读 · 2018年4月19日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关资讯
已删除
将门创投
7+阅读 · 2019年10月15日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员