大型语言模型(LLMs)应用的激增引发了人们对生成误导性或虚假信息(即幻觉)的担忧。因此,检测幻觉已成为维护 LLM 生成内容可信度的关键。学习真实分类器的一大挑战是缺乏大量标记的真实和幻觉数据。为了解决这一挑战,我们推出了 HaloScope,这是一种新颖的学习框架,利用未标记的 LLM 生成文本进行幻觉检测。 这种未标记数据在 LLM 部署到开放世界时自由产生,包含真实和幻觉信息。为了有效利用这些未标记数据,我们提出了一种自动化的成员资格估计评分,用于区分未标记混合数据中的真实与不真实生成,从而实现二元真实分类器的训练。重要的是,我们的框架不需要额外的数据收集和人工标注,为实际应用提供了很大的灵活性和可行性。大量实验表明,HaloScope 在幻觉检测性能上表现优越,显著超过了竞争对手。代码可在 https://github.com/deeplearning-wisc/haloscope 获取。

成为VIP会员查看完整内容
1

相关内容

【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
18+阅读 · 3月30日
【WWW2024】元认知检索-增强大型语言模型
专知会员服务
49+阅读 · 2月26日
【NeurIPS 2021】基于潜在空间能量模型的可控和组分生成
专知会员服务
15+阅读 · 2021年10月23日
专知会员服务
14+阅读 · 2021年10月15日
专知会员服务
18+阅读 · 2021年9月13日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
37+阅读 · 2019年7月25日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
378+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员