语言模型(LMs),如GPT-3和PaLM,在自然语言处理(NLP)任务中展现了令人印象深刻的能力。然而,仅依赖它们的参数来编码大量世界知识需要非常多的参数,因此需要大量计算,而且它们通常难以学习长尾知识。此外,这些参数化的LMs从根本上无法随时间适应,经常产生幻觉,并可能从训练语料库中泄露私人数据。为了克服这些限制,对基于检索的LMs有着越来越多的兴趣,这类LMs结合了非参数化数据存储(例如,来自外部语料库的文本块)和它们的参数化对应物。基于检索的LMs可以以远少于无检索LMs的参数数量大幅度超越它们的性能,可以通过替换其检索语料库来更新它们的知识,并为用户提供引用,以便于轻松验证和评估预测。 在这个教程中,我们旨在提供一个关于基于检索的LMs最近进展的全面而连贯的概览。我们将首先提供涵盖LMs和检索系统基础的初步内容。然后,我们将专注于基于检索的LMs的最新架构、学习方法和应用进展。

成为VIP会员查看完整内容
61

相关内容

UIUC-Gargi《增强型语言模型》,64页ppt与视频
专知会员服务
36+阅读 · 2023年5月12日
专知会员服务
82+阅读 · 2021年6月20日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
最新《知识驱动的文本生成》综述论文,44页pdf
专知会员服务
77+阅读 · 2020年10月13日
最新《图嵌入组合优化》综述论文,40页pdf
【KDD2020】图神经网络:基础与应用,322页ppt
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
VIP会员
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员