图神经网络(GNNs)是广泛使用的深度学习模型,从图结构数据学习有意义的表示。由于底层循环结构的有限性质,当前的GNN方法可能难以捕获底层图中的长期依赖关系。为了克服这个困难,我们提出了一个图学习框架,称为隐式图神经网络(IGNN),其中的预测是基于一个涉及隐式定义的“状态”向量的不动点平衡方程的解。利用Perron-Frobenius理论推导了保证框架良好性的充分条件。利用隐式微分,我们推出了一个易于处理的投影梯度下降方法来训练框架。对一系列任务进行的实验表明,IGNNs始终能够捕获长期依赖关系,并优于最先进的GNN模型。

https://arxiv.org/abs/2009.06211

成为VIP会员查看完整内容
24

相关内容

【Twitter】时序图神经网络
专知会员服务
95+阅读 · 2020年10月15日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
26+阅读 · 2020年10月15日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
74+阅读 · 2020年9月25日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
28+阅读 · 2020年7月13日
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
图卷积网络到底怎么做,这是一份极简的Numpy实现
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
【Twitter】时序图神经网络
专知会员服务
95+阅读 · 2020年10月15日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
26+阅读 · 2020年10月15日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
74+阅读 · 2020年9月25日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
28+阅读 · 2020年7月13日
相关论文
Arxiv
24+阅读 · 2018年10月24日
Arxiv
3+阅读 · 2018年2月11日
微信扫码咨询专知VIP会员