作为人工智能领域最先进的技术之一,检索增强生成(RAG) 技术能够提供可靠且最新的外部知识,为众多任务带来了巨大的便利。特别是在AI生成内容(AIGC)时代,RAG强大的检索能力可以提供额外的知识,帮助现有的生成式AI生成高质量的输出。最近,大型语言模型(LLMs)在语言理解和生成方面展现了革命性的能力,但它们仍面临固有的局限性,如幻觉和过时的内部知识。鉴于RAG在提供最新且有用的辅助信息方面的强大能力,检索增强的大型语言模型(RA-LLMs) 应运而生,利用外部的权威知识库,而不是单纯依赖模型的内部知识,从而增强LLMs的生成质量。

在本教程中,我们全面回顾了现有的关于检索增强大型语言模型(RA-LLMs)的研究工作,涵盖了三个主要技术视角:架构、训练策略和应用。作为基础知识,我们简要介绍了LLMs的基本原理及其最近的进展。接着,为了展示RAG对LLMs的实际意义,我们按应用领域对主流相关工作进行分类,详细说明了每个领域面临的挑战及RA-LLMs的对应能力。最后,为了提供更深刻的见解,我们讨论了当前的局限性以及未来研究的几个有前景的方向。

我们的综述论文:《RAG-Meets-LLMs: 迈向检索增强的大型语言模型》

https://advanced-recommender-systems.github.io/RAG-Meets-LLMs/

成为VIP会员查看完整内容
44

相关内容

【WWW2024教程】大型语言模型驱动智能体,附slides
【WWW2022教程】自动机器学习推荐系统:基础与进展
专知会员服务
38+阅读 · 2022年4月23日
【干货】用BRET进行多标签文本分类(附代码)
专知会员服务
84+阅读 · 2019年12月27日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
155+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
397+阅读 · 2023年3月31日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员