**论文题目:**Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs 本文作者:汪俊杰(浙江大学)、陈名杨(百川智能)、胡斌斌(蚂蚁集团)、杨丹(蚂蚁集团)、刘子奇(蚂蚁集团)、申月(蚂蚁集团)、魏鹏(蚂蚁集团)、张志强(蚂蚁集团)、顾进捷(蚂蚁集团)、周俊(蚂蚁集团)、Jeff Z. Pan(爱丁堡大学)、张文(浙江大学)、陈华钧(浙江大学) 发表会议:EMNLP 2024

论文链接:https://arxiv.org/abs/2406.14282

代码链接:https://github.com/zjukg/LPKG

欢迎转载,转载请注明出处****

一、引言

在利用大语言模型(LLMs)解决复杂问答时,往往会先对复杂问题进行规划(Planning),将复杂问题拆分为多个子问题,并对每个子问题分别进行检索问答,从而得到原始复杂问题的答案。对于参数量较小的模型(小于10B)来说,对复杂问题进行规划并非易事,往往需要进行监督训练。而这又进一步引出了一个值得关注的问题:如何获取规划任务的监督训练样本?若进行人工标注,人工标注的成本过高,难以规模化;一般的做法是从一个更大的语言模型中蒸馏出规划路径用于训练小型的语言模型,然而也无法保证更大模型中蒸馏出来的知识完全正确。我们发现知识图谱中蕴含着丰富且正确的推理知识。如图1所示,图谱中的每一个子图Pattern都可以被视为一个复杂问题的抽象表示,这为复杂问题规划任务的训练数据构建展现了新的可能。因此,在这项工作中,我们使用了知识图谱构建了复杂问题规划的训练数据,让大语言模型从知识图谱中习得问题规划的能力。

图1 知识图谱中的子图Pattern与复杂问题之间的联系

二、方法

图2 LPKG问答框架我们提出了名为LPKG的问答框架,旨在使用知识图谱构建复杂问题规划任务的训练数据,以此提升参数量较小的LLMs的规划能力。LPKG问答框架的整体流程如图2所示,其主要由以下三个部分组成:1.基于知识图谱的训练数据构建2.模型微调与下游问题推理3.规划过程解析与执行

基于知识图谱的训练数据构建

在训练数据构建之前,我们首先确定了9种类型的子图Pattern,如图3所示。其中,p代表投射逻辑(即一跳),i代表交集逻辑,u代表并集逻辑,c代表比较逻辑。每一种Pattern都代表了一种类型的查询,例如1p、2p、3p分别代表一跳、二跳、三跳查询,2i、3i、2u分别代表两个查询的交集、三个查询的交集、两个查询的并集,等等。我们在此处确定了丰富的Pattern类型,以期能够尽可能覆盖现实中各种类型的复杂问题。

图3 基本子图Pattern我们从公开的知识图谱Wikidata15k中,根据我们事先定义好的9种子图Pattern抽取出了9000个子图实例。随后,我们沿着每个子图实例的路径,自下而上地将其还原为了多个自然语言形式的子问题并糅合为一个复杂问题。为了提高效率并确保问题的流畅性,我们在此利用大模型实现子图数据格式的转化。通过调用GPT-4并给定上下文学习样例,高效而准确地完成子问题以及复杂问题的的构建。需要注意的是,虽然我们在这引入了大模型,但是知识仍然来源于知识图谱本身,大模型只承担了数据格式转化的任务,没有引入额外知识。随后,我们将得到的子问题按照问题类型填充到输出的模板中,复杂问题填充到输入的模板中,便构建得到了规划任务的训练数据。值得注意的是,我们采用了一种代码形式的训练数据构建方式,以便后续对模型输出进行格式化解析。

模型微调与下游问题推理

随后我们使用构建完成的训练数据进行模型微调,在此使用的是一般的Lora微调方式。训练完成之后,我们便可以使用微调过的模型在下游数据集上进行问题规划的推理。虽然我们使用的是图谱来源的数据,但是在下游推理的时候,完全可以对一般的多跳问答问题进行推理,而非仅限于KGQA。在此推理得到的是一份规划过程,如图2中的Output所示,需要通过后续的解析和执行得到最终的答案。

规划解析与执行

我们基于上一步得到的规划数据进行解析和执行,具体而言:1.当识别到“Search”关键字时,我们将调用检索器对子问题进行检索,获得相关的文档;2.当识别到“Get Answer”关键字时,我们将调用QA模型,令其基于子问题和相关文档进行作答;3.当识别到“Intersection”或者“Union”关键字时,我们调用交并集函数,对集合进行操作。需要注意的是,此处的QA模型和之前的规划模型是解耦的,可以使用任何一个现成的大模型来完成此处的问答。在所有的Plan解析完成之后,我们就得到的原始复杂问题的答案。

三、全新评测集:CLQA-Wiki

在实验过程中,我们发现现有的多跳问答评测集(HotPotQA、2WikiMultihopQA、MuSiQue、Bamboogle)存在一些问题:1.这些数据集原始都是为多跳问题以及比较类型的问题设计的,问题类型不够全面,分布也不均衡,同时也并不关注涉及交并集逻辑的问题;2.除了MuSiQue,其他所有的数据集只包含一个答案,尽管现实中的很多问题往往包含多个答案。因此,我们希望能够构建一个全新的评测集,能够涵盖更加丰富且均衡的逻辑类型,同时能够不限制问题的答案数量,从而更加符合现实的问题。考虑到知识图谱本身丰富的Pattern类型以及数量不受限制的答案实体,我们又基于Wikidata15K构建了一个全新的评测集CLQA-Wiki。CLQA-Wiki评测集的构建方式与上述训练集的构建方式类似,但是使用的子图实例不相同,避免数据泄漏问题。我们使用GPT-4将子图实例进行还原,保留下最终的复杂问题作为测试问题,同时我们也基于子图实例在图谱中进行游走,得到尾实体集合作为测试问题的答案。最终我们得到了1200条测试数据,并进行人工质检以保证数据质量。数据的分布如表1所示: 表1 CLQA-Wiki数据分布

四、实验结果

表2 主要实验结果我们首先在多个常见公开多跳问答数据集上进行了测试,实验结果如表2所示。我们选用CodeQwen1.5-7B-Chat以及Llama3-8B-Instruct作为规划模型的基座,并使用GPT-3.5作为QA模型。对比主流多个基线方法,我们的方法处于领先水平。同时,我们将微调过的规划模型替换为GPT-3.5,即ICLPKG(GPT-3.5),实验结果表明,我们微调出的小模型展现出了持平甚至优于GPT-3.5的效果,实现以小搏大。 表3 消融实验在消融实验中,我们将微调过的规划模型,替换为未经微调的原始模型,从而探讨图谱来源数据的有效性。实验结果如表3所示,对比原始模型,使用图谱来源的数据规划数据进行微调之后,整体端到端问答的准确率有明显的提升,这证明了图谱数据的有效性。 表4 对比一般蒸馏方法此外,我们也将图谱来源的数据与一般蒸馏方法作了对比。为了保证对比的公平性,我们从HotPotQA、2WikiMQA、MuSiQue的训练集中各抽取了3000条数据,并从GPT-3.5中蒸馏出规划路径,并将得到的规划路径用以微调CodeQwen1.5-7B-Chat,微调完成后在训练未见过的测试集Bamboogle上进行了测试。实验结果表明,在同样没有见过测试数据的情况下,使用图谱来源的数据进行微调的效果优于从更大的模型中蒸馏得到的结果。 表5 CLQA-Wiki实验结果最后,我们在全新测试集CLQA-Wiki上进行了测试,我们的方法在其中仍然处于领先水平。同时,从实验结果也反映出CLQA-Wiki是一个富有挑战的测试基准,现有的方法在其上的准确率都不够高,有望为复杂问答提供更为全面和挑战的评测基准。

五、总结

在这项工作中,我们探索如何让语言模型从知识图谱中习得复杂问题的规划能力。我们设计了名为LPKG的框架,利用了知识图谱中丰富的子图Pattern构建了丰富且正确的规划训练数据,并由此训练大语言模型使其能在下游问题上推理得到更为准确的规划过程,最后将规划过程进行解析和执行从而得到最终答案。我们在多个数据集上验证了LPKG框架的优越性,并且为社区贡献了一个名为CLQA-Wiki的全新复杂问答数据集。

成为VIP会员查看完整内容
0

相关内容

IJCAI2024|基于指令的大模型知识编辑
专知会员服务
28+阅读 · 5月15日
SIGIR2024|现实场景下的多模态知识图谱补全
专知会员服务
28+阅读 · 5月11日
COLING2024|不平衡场景下的多模态知识图谱补全
专知会员服务
22+阅读 · 3月23日
AAAI2024|场景图知识增强多模态结构化表示能力
专知会员服务
37+阅读 · 1月14日
EMNLP2023|大语言模型知识编辑问题、方法与挑战
ICLR2023:通过提示学习的蛋白质多级结构预训练
专知会员服务
11+阅读 · 2023年11月26日
【泡泡图灵智库】基于草图的图像检索的零元学习
泡泡机器人SLAM
12+阅读 · 2019年9月16日
深度学习目标检测算法综述
AI研习社
25+阅读 · 2019年2月1日
理解 YOLO 目标检测
AI研习社
20+阅读 · 2018年11月5日
【泡泡图灵智库】密集相关的自监督视觉描述学习(RAL)
泡泡机器人SLAM
11+阅读 · 2018年10月6日
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
66+阅读 · 2023年3月26日
VIP会员
相关VIP内容
IJCAI2024|基于指令的大模型知识编辑
专知会员服务
28+阅读 · 5月15日
SIGIR2024|现实场景下的多模态知识图谱补全
专知会员服务
28+阅读 · 5月11日
COLING2024|不平衡场景下的多模态知识图谱补全
专知会员服务
22+阅读 · 3月23日
AAAI2024|场景图知识增强多模态结构化表示能力
专知会员服务
37+阅读 · 1月14日
EMNLP2023|大语言模型知识编辑问题、方法与挑战
ICLR2023:通过提示学习的蛋白质多级结构预训练
专知会员服务
11+阅读 · 2023年11月26日
相关资讯
相关基金
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员