图神经网络(GNNs)是广泛使用的深度学习模型,从图结构数据学习有意义的表示。由于底层循环结构的有限性质,当前的GNN方法可能难以捕获底层图中的长期依赖关系。为了克服这个困难,我们提出了一个图学习框架,称为隐式图神经网络(IGNN),其中的预测是基于一个涉及隐式定义的“状态”向量的不动点平衡方程的解。利用Perron-Frobenius理论推导了保证框架良好性的充分条件。利用隐式微分,我们推出了一个易于处理的投影梯度下降方法来训练框架。对一系列任务进行的实验表明,IGNNs始终能够捕获长期依赖关系,并优于最先进的GNN模型。