随着大语言模型与视觉模型在现实应用中的广泛采用,如何应对“幻觉”问题——即模型生成错误或无意义输出的情况——已成为紧迫需求。这类错误在部署过程中可能导致错误信息的传播,从而带来财务和运营上的损失。尽管已有大量研究致力于缓解幻觉,但我们对其的理解依然不完整且零散。缺乏统一的理解框架可能导致现有方法只是在缓解表层症状,而非解决深层原因,从而限制了方法在实际部署中的有效性与普适性。 为弥补这一空白,我们首先提出了一个统一的、多层次框架,用于在不同应用场景下表征文本和图像幻觉,从而减少概念上的碎片化。随后,我们将这些幻觉与模型生命周期中的特定机制联系起来,并通过一种任务-模态交织的方法促进更为整体的理解。我们的研究表明,幻觉往往源于数据分布中可预测的模式以及继承的偏差。通过加深对幻觉的理解,本综述为开发更健壮、更有效的解决方案奠定了基础,从而提升生成式人工智能系统在现实环境中的可靠性。 **

**

附加关键词与短语: 幻觉成因,多模态失效分析,生成式人工智能,幻觉分类学,视觉-语言模型。

1 引言

大语言模型(Large Language Models, LLMs)、大规模视觉-语言模型(Large Vision-Language Models, LVLMs)以及文本生成视觉模型(Text-to-Vision Models, TVMs)如今已支撑了众多现实应用,影响着数百万用户。截至 2024 年,已有超过 77,000 家组织使用 GitHub 的 Copilot LLM 辅助软件开发 [21]。在专业媒体领域,Adobe 的 Firefly TVM 已经生成超过 45 亿次内容 [124]。ChatGPT 现已为超过 100 万家企业用户提供日常任务支持 [46],而 Google 的 Gemini LVLM 正在跨行业自动化复杂的图文工作流 [99]。 尽管应用广泛,这些模型经常会生成错误、不一致或不连贯的内容——这一现象被称为幻觉(hallucinations)[10, 26, 105, 158]。幻觉可能带来实际危害:例如,存在缺陷的代码建议会损害软件可靠性 [97];不连贯的 AI 生成媒体降低了用户参与度 [73];而不一致的图文分析则会削弱工作流质量 [51]。随着越来越多的组织依赖这些模型来塑造数百万用户使用的下游产品与服务,如何应对语言和视觉模型中的幻觉问题已成为一项关键挑战。 尽管已有大量努力致力于解决幻觉,但仍存在两个关键空白。首先,我们对幻觉的理解仍然有限。现有研究大多集中于缓解策略,这些方法通常是对观察到的失败案例作出的回应,而非基于对幻觉成因的系统性理解。因此,许多缓解技术可能仍然是被动且不完整的,从而限制了其有效性与性能。其次,幻觉相关研究仍然是碎片化的,缺乏系统化。不同研究常常采用针对特定任务或模态的狭窄或经验性定义,这使得我们难以得出更广泛的见解或识别可能揭示更深层次成因的共性失效模式。结果是,开发具备更强泛化性和稳健性的缓解策略受到了显著阻碍。要降低幻觉在实际应用中带来的风险,亟需填补这两方面的空白:加深理解减少碎片化。 为弥补这些不足,我们提出了对幻觉进行深入调查与系统化刻画的研究。我们的工作包含三个主要贡献: 1. 提出统一框架:该框架为幻觉提供了一个更为通用的定义。与先前工作不同,它充分考虑了不同模态和任务的差异性,大幅提升了适用性与覆盖面。这有助于减少现有讨论中的碎片化,推动围绕幻觉现象更为连贯的学术话语。 1. 开展全面综述:我们对 LLMs、LVLMs 与 TVMs 中的幻觉成因进行了系统性综述。本综述采用跨模态交织的方式组织,而非僵化的任务划分,从而更好地识别不同系统间的共性失效模式。更为重要的是,我们将该综述建立在所提出的统一框架之上,并将幻觉成因追溯到模型生命周期中可识别的机制,从而实现更深层次、更完整的理解。 1. 凝练研究洞见与未来方向:我们基于综述总结出反复出现的主题,并提出未来研究方向。论文的整体结构见图 1,近期的理解尝试则展示于图 2。

通过提出统一定义与根因综述,我们希望能推动幻觉理解的深化,并支持开发更具普适性与有效性的解决方案,从而降低人工智能系统在现实应用中带来的风险。

成为VIP会员查看完整内容
2

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
大模型训练与适配中的低秩结构研究综述
专知会员服务
18+阅读 · 3月27日
大型视觉语言模型中幻觉现象的综述
专知会员服务
47+阅读 · 2024年10月24日
大型语言模型的知识蒸馏综述:方法、评估与应用
专知会员服务
77+阅读 · 2024年7月4日
大规模语言模型的人类偏好学习综述
专知会员服务
41+阅读 · 2024年6月19日
大语言模型的终身学习综述
专知会员服务
75+阅读 · 2024年6月15日
视觉语言建模导论
专知会员服务
38+阅读 · 2024年5月30日
大模型时代的自动图表理解综述
专知会员服务
69+阅读 · 2024年3月19日
专知会员服务
123+阅读 · 2020年12月9日
数据受限条件下的多模态处理技术综述
专知
20+阅读 · 2022年7月16日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
见微知著:语义分割中的弱监督学习
深度学习大讲堂
11+阅读 · 2017年12月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
175+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
大模型训练与适配中的低秩结构研究综述
专知会员服务
18+阅读 · 3月27日
大型视觉语言模型中幻觉现象的综述
专知会员服务
47+阅读 · 2024年10月24日
大型语言模型的知识蒸馏综述:方法、评估与应用
专知会员服务
77+阅读 · 2024年7月4日
大规模语言模型的人类偏好学习综述
专知会员服务
41+阅读 · 2024年6月19日
大语言模型的终身学习综述
专知会员服务
75+阅读 · 2024年6月15日
视觉语言建模导论
专知会员服务
38+阅读 · 2024年5月30日
大模型时代的自动图表理解综述
专知会员服务
69+阅读 · 2024年3月19日
专知会员服务
123+阅读 · 2020年12月9日
相关资讯
数据受限条件下的多模态处理技术综述
专知
20+阅读 · 2022年7月16日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
见微知著:语义分割中的弱监督学习
深度学习大讲堂
11+阅读 · 2017年12月6日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员