图表示学习是2018年火爆全球的一个深度学习方向,从以 Line, meta-path 等为首的节点表示学习,到以 GCN,GraphSAGE,为首的图卷积方法,在到近期的以 GraphVAE 为首的生成图模型,图表示学习方向的文章如过江之鲫。

VIP内容

用于文本图表示学习的 GNN 嵌套 Transformer 模型:GraphFormers

GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph

论文摘要:文本图的表示学习是基于单个文本特征和邻域信息为节点生成低维嵌入。现有的工作主要依赖于级联模型结构:首先通过语言模型对节点的文本特征进行独立编码;然后通过图神经网络对文本嵌入进行聚合。然而这种文本特征独立建模的结构限制了模型的效果。故本文提出了 GraphFormers ——将 GNN 组件嵌套在 Transformer 语言模型的一种新架构。在该架构中,文本编码和图聚合融合为一个迭代工作流,使得每个节点的语义都能从全局角度准确理解。此外,还引入了一种渐进式学习策略,该策略在操作数据和原始数据上连续训练模型,以增强其在图形上整合信息的能力。实验证明,本文提出的架构在 3 个数据集上都取得了最好结果。

https://www.zhuanzhi.ai/paper/fe680cfb84881e3cd10ad6cb93a66978

成为VIP会员查看完整内容
0
16
参考链接
Top