Detecting disinformation that blends manipulated text and images has become increasingly challenging, as AI tools make synthetic content easy to generate and disseminate. While most existing AI safety benchmarks focus on single modality misinformation (i.e., false content shared without intent to deceive), intentional multimodal disinformation, such as propaganda or conspiracy theories that imitate credible news, remains largely unaddressed. We introduce the Vision-Language Disinformation Detection Benchmark (VLDBench), the first large-scale resource supporting both unimodal (text-only) and multimodal (text + image) disinformation detection. VLDBench comprises approximately 62,000 labeled text-image pairs across 13 categories, curated from 58 news outlets. Using a semi-automated pipeline followed by expert review, 22 domain experts invested over 500 hours to produce high-quality annotations with substantial inter-annotator agreement. Evaluations of state-of-the-art Large Language Models (LLMs) and Vision-Language Models (VLMs) on VLDBench show that incorporating visual cues improves detection accuracy by 5 to 35 percentage points over text-only models. VLDBench provides data and code for evaluation, fine-tuning, and robustness testing to support disinformation analysis. Developed in alignment with AI governance frameworks (e.g., the MIT AI Risk Repository), VLDBench offers a principled foundation for advancing trustworthy disinformation detection in multimodal media. Project: https://vectorinstitute.github.io/VLDBench/ Dataset: https://huggingface.co/datasets/vector-institute/VLDBench Code: https://github.com/VectorInstitute/VLDBench


翻译:检测融合了篡改文本与图像的虚假信息正变得日益困难,因为AI工具使得合成内容的生成与传播变得轻而易举。尽管现有的大多数AI安全基准主要关注单模态错误信息(即无意欺骗而传播的虚假内容),但诸如模仿可信新闻的宣传或阴谋论等有意的多模态虚假信息在很大程度上仍未得到解决。我们提出了视觉-语言虚假信息检测基准(VLDBench),这是首个支持单模态(仅文本)与多模态(文本+图像)虚假信息检测的大规模资源。VLDBench包含来自58家新闻机构的约62,000个带标签的文本-图像对,涵盖13个类别。通过采用半自动化流程并结合专家评审,22位领域专家投入超过500小时,以较高的标注者间一致性生成了高质量标注。在VLDBench上对最先进的大型语言模型(LLMs)和视觉-语言模型(VLMs)的评估表明,融入视觉线索可将检测准确率较仅文本模型提升5至35个百分点。VLDBench提供了用于评估、微调和鲁棒性测试的数据与代码,以支持虚假信息分析。该基准的开发遵循AI治理框架(如MIT AI风险知识库),为推进多模态媒体中可信虚假信息检测提供了原则性基础。项目:https://vectorinstitute.github.io/VLDBench/ 数据集:https://huggingface.co/datasets/vector-institute/VLDBench 代码:https://github.com/VectorInstitute/VLDBench

0
下载
关闭预览

相关内容

国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员