将大型语言模型(LLMs)用作特征增强器,以优化节点表示后再输入图神经网络(GNNs),这一方法在图表示学习中展现出显著潜力。然而,这一策略的基本属性仍缺乏深入探讨。为了解决这一问题,我们提出基于“互换干预法”(interchange intervention method)对该方法进行更深入的分析。 首先,我们构建了一个具备可控因果关系的合成图数据集,能够精确操控语义关系与因果结构,为分析提供数据支持。在此数据集上,我们实施互换干预操作,深入剖析LLM增强器与GNN的内在属性,揭示其底层逻辑与内部机制。

基于分析结果,我们进一步设计了一个即插即用的优化模块,用于提升LLM增强器与GNN之间的信息传递效率。在多个数据集和模型上的实验结果验证了该模块的有效性。项目代码可在以下地址获取: https://github.com/WX4code/LLMEnhCausalMechanism

成为VIP会员查看完整内容
2

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
微信扫码咨询专知VIP会员