如何减轻大规模语言模型(LLMs)中的幻觉问题,一直是LLMs研究社区追求的根本目标。通过回顾大量与幻觉相关的研究,减少幻觉的主流方法之一是通过优化LLMs的知识表示来改变其输出。考虑到这些工作的核心关注点是模型所获取的知识,而知识一直是人类社会进步的核心主题,我们认为模型在精炼知识的过程中,可以从人类的学习方式中大大受益。

在本研究中,我们通过模仿人类的学习过程,设计了一种自适应对比学习策略。我们的方法根据LLMs实际掌握的知识灵活地构建不同的正负样本进行对比学习。这一策略帮助LLMs巩固它们已掌握的正确知识,深化它们对已接触但未完全理解的正确知识的理解,忘记之前学习过的错误知识,并诚实地承认它们缺乏的知识。大量实验和广泛使用的数据集上的详细分析验证了我们方法的有效性。

成为VIP会员查看完整内容
17

相关内容

【CIKM2024】使用大型视觉语言模型的多模态虚假信息检测
【ACL2024】大型语言模型的稀疏加速训练
专知会员服务
27+阅读 · 2024年6月4日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
22+阅读 · 2023年10月21日
【CIKM2023】利用知识和强化学习提升语言模型的可靠性
专知会员服务
47+阅读 · 2023年9月20日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
63+阅读 · 2021年4月21日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
19+阅读 · 2020年6月26日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
446+阅读 · 2023年3月31日
Arxiv
75+阅读 · 2023年3月26日
Arxiv
23+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员