用于文本图表示学习的 GNN 嵌套 Transformer 模型:GraphFormers

GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph

论文摘要:文本图的表示学习是基于单个文本特征和邻域信息为节点生成低维嵌入。现有的工作主要依赖于级联模型结构:首先通过语言模型对节点的文本特征进行独立编码;然后通过图神经网络对文本嵌入进行聚合。然而这种文本特征独立建模的结构限制了模型的效果。故本文提出了 GraphFormers ——将 GNN 组件嵌套在 Transformer 语言模型的一种新架构。在该架构中,文本编码和图聚合融合为一个迭代工作流,使得每个节点的语义都能从全局角度准确理解。此外,还引入了一种渐进式学习策略,该策略在操作数据和原始数据上连续训练模型,以增强其在图形上整合信息的能力。实验证明,本文提出的架构在 3 个数据集上都取得了最好结果。

https://www.zhuanzhi.ai/paper/fe680cfb84881e3cd10ad6cb93a66978

成为VIP会员查看完整内容
42

相关内容

图表示学习是2018年火爆全球的一个深度学习方向,从以 Line, meta-path 等为首的节点表示学习,到以 GCN,GraphSAGE,为首的图卷积方法,在到近期的以 GraphVAE 为首的生成图模型,图表示学习方向的文章如过江之鲫。
【NeurIPS2021】学习用于分布外预测的因果语义表示
专知会员服务
17+阅读 · 2021年11月19日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
44+阅读 · 2021年9月27日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
39+阅读 · 2020年11月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
基于 GNN 的图表示学习
DataFunTalk
9+阅读 · 2020年1月17日
基于图卷积文本模型的跨模态信息检索
专知
9+阅读 · 2019年8月3日
赛尔笔记 | 一文读懂图神经网络
哈工大SCIR
81+阅读 · 2019年7月12日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
22+阅读 · 2020年9月16日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Graph Transformer for Graph-to-Sequence Learning
Arxiv
4+阅读 · 2019年11月30日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Arxiv
21+阅读 · 2018年8月30日
VIP会员
相关VIP内容
【NeurIPS2021】学习用于分布外预测的因果语义表示
专知会员服务
17+阅读 · 2021年11月19日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
44+阅读 · 2021年9月27日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
39+阅读 · 2020年11月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
相关论文
Arxiv
9+阅读 · 2021年10月26日
Arxiv
22+阅读 · 2020年9月16日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Graph Transformer for Graph-to-Sequence Learning
Arxiv
4+阅读 · 2019年11月30日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Arxiv
21+阅读 · 2018年8月30日
微信扫码咨询专知VIP会员