作者:张文、朱渝珊、陈名杨、陈华钧

1. 引言

知识是人类社会发展沉淀下来的精华,其表示形式多种多样,知识可以被表示于文本、图片、视频、音频等众多形态中,随着这两年预训练语言模型以及大语言模型的成功,大语言模型的知识表示和推理能力被广泛关注和讨论,其中被讨论较多的是以语言(即文本序列)形式表示的知识,也就是我们常说的非结构化知识,近期,结构化知识如代码、表格、图等在大语言模型中的处理与应用逐渐受到关注和讨论,本文将探讨面向结构化知识的预训练语言大模型前沿趋势,主要尝试探索以下两个问题: 1)对比其他形式的知识如文本序列等,结构化知识的核心特色是什么?结构化知识应该如何被有效地学习?2)目前广受关注的大语言模型作为基于序列数据训练而得的模型,在利用结构化知识方面表现如何?本文将以知识图谱为例,对这两个问题展开讨论。针对第一个问题,本文将以我们在WWW2023上发表的论文KGTransformer为例进行介绍,说明结构知识的核心特色在于广泛存在于结构表示中的可迁移的模式。针对第二个问题,本文将介绍我们用GPT-3.5对知识图谱数据进行推理的初步验证,说明大语言模型在结构数据学习方面尚有欠缺。

2. KGTransformer-知识结构预训练与提示调优(WWW2023)

2.1 动机知识图谱(KG)以(头实体、关系、尾实体)的形式将事实表示为三元组,简称(h,r,t),这是一个用于存储世界上常见知识,例如(地球、位置、内太阳系),的存储方式。近年来,已经构建了Wididata、YAGO和NELL等多个大规模知识图谱,并将其作为背景知识提供者应用于机器学习任务中,如问答、图像分类、视觉推理等。在为与知识图谱相关的任务设计模型时,关键任务之一是设计知识表示与融合(KRF)模块,该模块从知识图谱中学习元素的表示,并将其与任务表示融合。如图1所示,知识图谱补全模型RotatE通过对复数空间中的实体和关系进行嵌入学习来表示KGs中的知识,并通过得分函数计算三元组的真值。零样本图像分类模型GCNZ使用图卷积网络和ResNet分别学习知识图谱和图像的表示,并通过对齐分类器在知识图谱表示和图像表示上的结果来融合它们。基于知识的问答模型QA-GNN首先对query-kg图进行编码,并将表示与查询表示融合以进行预测。由于需要考虑的知识图谱和视角的不同,在知识图谱相关的任务模型中,KRF模块也存在差异,这给临时的KRF模块设计留下了重复的工作。

为了解决这个问题,预训练的KG模型被提出来学习实体和关系的通用嵌入表示,可以应用于许多任务。这些嵌入被认为包含实体相似性、层次结构和关系等信息,可用于推荐系统、实体对齐、问答等任务,有助于隐式访问知识图谱中的知识。然而,这种方式面临两个挑战:(1)第一个挑战是,如果任务知识图谱与预训练知识图谱包含不同的实体和关系,则基于嵌入的方法由于嵌入缺失而无法将有价值的信息传递给下游任务模型。(2)第二个挑战是知识图谱和任务数据之间缺少基本的交互和融合,使得融合模块的设计成为下游任务模型设计的一部分。因此,基于嵌入的知识图谱模型并不是KRF模块跨知识图谱相关任务的理想解决方案。KGTransformer通过对KG结构进行预训练,并将与特定实体和关系无关的参数转换到下游任务来解决第一个挑战。本文通过提示调优机制解决第二个挑战,以实现KGs和任务数据之间的统一和灵活融合。

2.2 方法KGTransformer由多个KGTransformer层组成。该模型以采样的子图的三元组序列作为输入。在KGTransformer层中,根据三元组元素之间的邻接矩阵,允许序列中不同元素进行有限的交互,即具有相同元素(实体或关系)的三元组,在Transformer结构中是可见的。在训练阶段,本文提出一种具有三个自监督任务的子图预训练方法,即掩码实体建模、掩码关系建模和实体对建模。 在下游任务阶段,KGTransformer层中的参数𝜃M有助于将与特定实体和关系无关的图结构知识从预训练KG转移到任务KG。本文提出一种通用的提示调优机制,将每个任务样本作为一个连接在任务KG序列末尾的提示。最后,我们从最后一个KGTransformer层取出一些隐藏状态,并将它们输入到任务层进行预测。此阶段KGTransformer层参数𝜃M被冻结,以保持与预训练期间学习的特定实体和关系无关的图结构知识。

2.3 实验验证我们在由wn18rr, fb15k-237,codex组成的WFC数据集上对KGTransformer层进行了预训练,并将其应用于三种任务中,包括三元组分类、零样本图片分类、问答,每种任务所使用的任务图谱均不一样。下面为三种任务的实验效果实验1:三元组分类实验效果 实验2:零样本图片分类实验效果 实验3:问答实验效果 根据以上三种不同任务的实验结果,我们可以得出结论:(1)在具有不同结构的知识图谱上预训练KGTransformer,使其能够学习知识图谱中的全局图结构知识,而仅基于任务图谱无法充分学习这些知识;(2)建议用固定参数𝜃M的方式调整预训练的KGTransformer,以更好、更快地保持从预训练的KG中学到的图结构知识并将其迁移到下游任务。KGTransformer的工作证明了不同的结构数据之间具有共性的可迁移的知识,形象化地描述,结构推理规则、元图模式如环状结构、路径、星状结构等都可以被看作是可迁移的结构知识。虽然结构化表示的对象本身可以通常也可以被表示为序列的文本,例如(中国,首都,北京)这样的三元组可以被表示为“中国的首都是北京”,但是结构化表示的好处是其广泛存在的可迁移的结构模式,这种结构模式是容易被算法挖掘并用于预测推理的。因此充分挖掘和利用结构知识表示中存在的模式,是发挥结构知识优势的核心。接下来,我们将介绍大语言模型对结构化知识的利用能力如何,我们以GPT-3.5为实验对象,重点针对大语言模型挖掘结构化知识模式展开探索。

3. 总结和展望:结构化知识大模型本文以知识图谱为例,说明了在结构化数据中广泛存在着可迁移的模式,而LLM挖掘结构化数据模式的能力尚有欠缺,其性能显著弱于传统的知识图谱嵌入模型。LLM基于结构化数据进行推理的难点有以下几个:(1)缺乏结构数据全局视野,受限于输入的长度,LLM无法感知全局的结构数据;(2)难以捕捉结构复杂关联,结构数据的依赖和关联关系复杂,相距较远的节点之间可能有巨大的影响,一个节点可能受到多个多阶邻居的综合影响;(3)受到线性输入输出制约,结构数据的推理具有显著的非线性性,具有一定的层次性和组合性,LLM线性的序列输入输出难以捕捉这类信息。因此,我们认为有必要研究结构化知识大模型,通过结构化知识指令等方式提升LLM的结构知识感知能力,通过结合外部工具捕捉结构知识的复杂关联,借助联合微调增强LLM的非线性思考能力等。最终实现可以理解多种知识表示方式并具有基于多种知识表示方法进行推理的大模型。

成为VIP会员查看完整内容
56

相关内容

基于强化学习的知识图谱综述
专知会员服务
195+阅读 · 2022年8月20日
专知会员服务
50+阅读 · 2021年9月25日
【CVPR2021】基于反事实推断的视觉问答框架
专知会员服务
26+阅读 · 2021年3月4日
事件知识图谱构建技术与应用综述
专知会员服务
148+阅读 · 2020年8月6日
专知会员服务
223+阅读 · 2020年5月6日
事件知识图谱构建技术与应用综述
专知
23+阅读 · 2020年8月6日
【论文笔记】基于LSTM的问答对排序
专知
12+阅读 · 2019年9月7日
知识图谱嵌入(KGE):方法和应用的综述
专知
56+阅读 · 2019年8月25日
AAAI 2019 | 基于分层强化学习的关系抽取
PaperWeekly
20+阅读 · 2019年3月27日
【CPS】社会物理信息系统(CPSS)及其典型应用
产业智能官
16+阅读 · 2018年9月18日
最全知识图谱综述#1: 概念以及构建技术
机器学习研究会
74+阅读 · 2017年9月28日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
146+阅读 · 2023年3月24日
VIP会员
相关资讯
事件知识图谱构建技术与应用综述
专知
23+阅读 · 2020年8月6日
【论文笔记】基于LSTM的问答对排序
专知
12+阅读 · 2019年9月7日
知识图谱嵌入(KGE):方法和应用的综述
专知
56+阅读 · 2019年8月25日
AAAI 2019 | 基于分层强化学习的关系抽取
PaperWeekly
20+阅读 · 2019年3月27日
【CPS】社会物理信息系统(CPSS)及其典型应用
产业智能官
16+阅读 · 2018年9月18日
最全知识图谱综述#1: 概念以及构建技术
机器学习研究会
74+阅读 · 2017年9月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员