在过去的几年中,图上的深度学习在各个领域取得了显著的进展。然而,大多数图学习任务假设图是静态的,而现实世界的图可能会不断增长或演变。因此,研究如何在不忘记之前学习的知识的情况下,不断地使图学习模型适应新的模式/任务是至关重要的。为此,在本教程中,我们将介绍持续图学习(CGL)的新领域。具体来说,我们将(1)介绍不同的持续图学习设置,(2)提出CGL中的关键挑战,(3)强调现有的CGL技术,以及(4)讨论未来的方向。本教程时长为3小时,包括150分钟的演示和30分钟的问答。
现实世界的图通常是不断增长或演变的。例如,新类型的论文可能会不断添加到引文网络中,而文档分类器有望不断适应并能够对新类型的论文进行分类。在药物设计研究中,可能会不断地遇到具有新性质的分子,而分子性质预测器必须不断地学习新的分子性质。现有的图学习模型擅长学习新的模式/任务。然而,高可塑性也带来了灾难性遗忘问题,即模型在学习新任务后,对先前学习的任务的性能急剧下降。为此,CGL最近受到越来越多的关注,因此将在本教程中进行深入讨论。
由于不同领域的图形数据形式复杂,我们首先介绍CGL的形式化设置。具体来说,我们将解释任务增量(task-IL)和类增量(class-IL)场景下的节点级任务和图级任务。然后,基于这些设置,我们将介绍CGL的关键挑战,以及与传统的独立数据(如图像)上的持续学习的区别。接下来,我们将介绍现有的方法,包括专门为CGL开发的方法,以及适用于CGL的传统持续学习方法。最后,在分析现有方法优缺点的基础上,指出尚待解决的挑战和未来的研究方向。