图终身学习(continual graph learning,LGL)是一个新兴领域,旨在实现对图结构数据的持续学习,以解决现有任务上的灾难性遗忘问题,并使得顺序更新的模型能够适应新出现的图任务. 尽管LGL展现出良好的学习能力,但如何持续提高其性能仍然是一个至关重要的问题. 为填补现有研究对这一方面的空白,本文对最近在LGL领域的研究进行了全面调查和总结. 首先,重新分类了LGL的现有方法,重点关注克服灾难性遗忘的方法. 随后,系统地分析了这些方法的优缺点,并探讨了实现持续性能提升的潜在解决方案. 我们的研究着重于如何在持续学习的过程中避免对旧任务的遗忘,同时快速适应新任务的挑战. 最后,还就LGL的未来发展方向进行了讨论,涵盖了其在应用领域、开放性问题等方面的潜在影响,并具体分析了这些方向对持续性能改进的潜在影响. 这些讨论将有助于指导未来LGL研究的方向,推动这一领域的进一步发展与应用.

图终身学习(continual graph learning,LGL)是一个旨在实现图结构数据终身学习的新兴领域,可以在连续学习的同时保留以前学到的知识. 尽管LGL在研究界受到广泛关注,大多研究仅仅局限于解决灾难性遗忘问题,而忽视持续性能改进的问题. 为此,本文将全面概述LGL的最新进展,包括现有最先进的分类法、潜在应用以及开放研究问题的讨论等,以应对LGL面临的独特挑战[1]. 此外,分析了如何应用现有各种方法实现LGL的性能提升. 最后,讨论了目前仍然亟待解决的问题,并提出了未来的发展方向.

随着深度学习在生活各领域的成功应用,人们开始渴望更强大的通用人工智能. 尽管具有很好的发展前景,基于神经网络的终身学习还是面临着一个严重的遗忘问题:在新任务上的学习通常会导致旧任务上性能的急剧下降,这被称为灾难性遗忘(catastrophic forgetting,CF)[2]. 将终身学习(lifelong learning,LL)与图学习(graph learning,GL)结合起来显然是减轻灾难性遗忘的普遍解决方案,二者的结合巩固也被称为LGL. 尽管LGL具有潜力,但由于欧几里得数据和图之间的结构差异,一般LL和LGL之间存在显著或复杂的差异,包括模型、任务设置和方法[3]. 此外,LL和LGL都主要关注于克服灾难性遗忘,而忽略了终身的性能改进. 尽管关于LGL的研究越来越多,但关于LGL的调查却很少. 为了弥补这一差距,本文旨在对LGL的研究工作进行一个全面的调查.

成为VIP会员查看完整内容
29

相关内容

《图持续学习》综述
专知会员服务
28+阅读 · 2月20日
《深度学习多标签学习》最新综述
专知会员服务
40+阅读 · 1月31日
《深度模型融合》综述
专知会员服务
71+阅读 · 2023年9月28日
计算机视觉中的终身学习综述
专知会员服务
63+阅读 · 2023年7月13日
持续学习:研究综述
专知会员服务
78+阅读 · 2023年1月30日
专知会员服务
22+阅读 · 2021年9月16日
专知会员服务
65+阅读 · 2021年7月11日
深度学习图像检索(CBIR): 十年之大综述
专知会员服务
46+阅读 · 2020年12月5日
【MIT博士论文】数据高效强化学习,176页pdf
时空数据挖掘:综述
专知
24+阅读 · 2022年6月30日
深度学习图像检索(CBIR): 十年之大综述
专知
65+阅读 · 2020年12月5日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
10+阅读 · 2020年11月26日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关VIP内容
《图持续学习》综述
专知会员服务
28+阅读 · 2月20日
《深度学习多标签学习》最新综述
专知会员服务
40+阅读 · 1月31日
《深度模型融合》综述
专知会员服务
71+阅读 · 2023年9月28日
计算机视觉中的终身学习综述
专知会员服务
63+阅读 · 2023年7月13日
持续学习:研究综述
专知会员服务
78+阅读 · 2023年1月30日
专知会员服务
22+阅读 · 2021年9月16日
专知会员服务
65+阅读 · 2021年7月11日
深度学习图像检索(CBIR): 十年之大综述
专知会员服务
46+阅读 · 2020年12月5日
相关资讯
【MIT博士论文】数据高效强化学习,176页pdf
时空数据挖掘:综述
专知
24+阅读 · 2022年6月30日
深度学习图像检索(CBIR): 十年之大综述
专知
65+阅读 · 2020年12月5日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
相关论文
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
10+阅读 · 2020年11月26日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
11+阅读 · 2018年7月31日
微信扫码咨询专知VIP会员