大语言模型中的幻觉问题:挑战与解决方案

大语言模型(LLMs)在生成类人文本方面取得了显著进展,但其“幻觉”倾向——即生成事实错误或虚构信息——仍然是一个亟待解决的问题。本教程将全面探讨LLMs中的幻觉问题,向参与者介绍该领域的关键概念和挑战。我们将涵盖幻觉的类型,包括“事实幻影”(Factual Mirage)和“银边幻觉”(Silver Lining),并展示最新的基准测试、检测和缓解方法。

**多模态视角下的幻觉问题

从多模态的角度来看,理解幻觉问题尤为重要,因为视觉-语言模型(VLMs)可能会通过将幻觉文本与误导性图像或视频结合,进一步加剧这一问题。本教程将提供实用的技术,通过黑盒和灰盒方法减少幻觉。

**目标受众与学习收获

本教程专为生成式AI领域的研究人员和从业者设计,旨在弥合新兴研究与实际解决方案之间的差距,为参与者提供宝贵的见解和工具,以提升LLM输出的事实准确性。通过参与本教程,您将更深入地理解LLM幻觉的复杂性,并掌握推动该领域未来创新的策略。

成为VIP会员查看完整内容
2

相关内容

【PODS2023】从查询语言的视角看图学习,111页ppt
专知会员服务
26+阅读 · 2023年7月22日
【经典教程】深度学习与信息论,321页ppt
专知会员服务
116+阅读 · 2022年6月13日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
128+阅读 · 2020年7月20日
国家自然科学基金
14+阅读 · 2016年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
437+阅读 · 2023年3月31日
Arxiv
74+阅读 · 2023年3月26日
Arxiv
157+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
14+阅读 · 2016年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员