生成型大型语言模型(LLMs)如 GPT-3 能够为各种用户提示生成流畅的响应。但是,LLMs 有时会产生错误的事实,这可能会损害人们对它们输出的信任。现有的事实检查方法要么需要访问输出概率分布(这对于如 ChatGPT 这样的系统可能不可用),要么需要通过复杂的模块接口外部数据库。在这项工作中,我们提出了 "SelfCheckGPT",一个简单的基于抽样的方法,可用于在不需要外部数据库的情况下对黑盒模型进行事实检查。SelfCheckGPT 的核心思想是,如果LLM知道某个概念,抽样的响应很可能会类似并包含一致的事实。但对于错误的事实,随机抽样的响应可能会有所不同并互相矛盾。我们使用 GPT-3 生成 WikiBio 数据集中的个人文章,并手动注释生成的文章的事实性。我们证明 SelfCheckGPT 可以:i) 检测非事实性和事实性的句子;以及 ii) 根据事实性对文章进行排名。我们将我们的方法与几种基线方法进行比较,结果显示在句子错误检测中,我们的方法的 AUC-PR 分数与灰盒方法相当或更好,而 SelfCheckGPT 在文章事实性评估方面表现最佳。

成为VIP会员查看完整内容
41

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
22+阅读 · 2023年7月23日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
29+阅读 · 2022年10月17日
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
专知会员服务
37+阅读 · 2021年6月19日
专知会员服务
37+阅读 · 2021年4月25日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【WWW2021】自监督学习上下文嵌入的异构网络链接预测
专知会员服务
39+阅读 · 2021年2月10日
专知会员服务
35+阅读 · 2020年11月29日
专知会员服务
29+阅读 · 2020年9月18日
【NeurIPS 2022】扩散模型的深度平衡方法
专知
0+阅读 · 2022年11月6日
国家自然科学基金
10+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
380+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
22+阅读 · 2023年7月23日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
29+阅读 · 2022年10月17日
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
专知会员服务
37+阅读 · 2021年6月19日
专知会员服务
37+阅读 · 2021年4月25日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【WWW2021】自监督学习上下文嵌入的异构网络链接预测
专知会员服务
39+阅读 · 2021年2月10日
专知会员服务
35+阅读 · 2020年11月29日
专知会员服务
29+阅读 · 2020年9月18日
相关基金
国家自然科学基金
10+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员