大语言模型(LLMs)在生成类人文本方面取得了显著进展,但其“幻觉”倾向——即生成事实错误或虚构信息——仍然是一个亟待解决的问题。本教程将全面探讨LLMs中的幻觉问题,向参与者介绍该领域的关键概念和挑战。我们将涵盖幻觉的类型,包括“事实幻影”(Factual Mirage)和“银边幻觉”(Silver Lining),并展示最新的基准测试、检测和缓解方法。
从多模态的角度来看,理解幻觉问题尤为重要,因为视觉-语言模型(VLMs)可能会通过将幻觉文本与误导性图像或视频结合,进一步加剧这一问题。本教程将提供实用的技术,通过黑盒和灰盒方法减少幻觉。
本教程专为生成式AI领域的研究人员和从业者设计,旨在弥合新兴研究与实际解决方案之间的差距,为参与者提供宝贵的见解和工具,以提升LLM输出的事实准确性。通过参与本教程,您将更深入地理解LLM幻觉的复杂性,并掌握推动该领域未来创新的策略。