GNN + Transformer = GraphFormers

2021 年 11 月 24 日 图与推荐


用于文本图表示学习的 GNN 嵌套 Transformer 模型:GraphFormers

GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph


论文摘要:文本图的表示学习是基于单个文本特征和邻域信息为节点生成低维嵌入。现有的工作主要依赖于级联模型结构:首先通过语言模型对节点的文本特征进行独立编码;然后通过图神经网络对文本嵌入进行聚合。然而这种文本特征独立建模的结构限制了模型的效果。故本文提出了 GraphFormers ——将 GNN 组件嵌套在 Transformer 语言模型的一种新架构。在该架构中,文本编码和图聚合融合为一个迭代工作流,使得每个节点的语义都能从全局角度准确理解。此外,还引入了一种渐进式学习策略,该策略在操作数据和原始数据上连续训练模型,以增强其在图形上整合信息的能力。实验证明,本文提出的架构在 3 个数据集上都取得了最好结果。



登录查看更多
6

相关内容

【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
40+阅读 · 2020年9月27日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
151+阅读 · 2020年6月28日
NeurIPS'21 | Transformer 在图表示任务中胜过 GNN?
图与推荐
2+阅读 · 2021年11月21日
NeuralPS'20 | Graph Meta Learning via Local Subgraphs
图与推荐
3+阅读 · 2021年10月29日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关资讯
相关基金
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Top
微信扫码咨询专知VIP会员