A fundamental challenge in Continual Learning (CL) is catastrophic forgetting, where adapting to new tasks degrades the performance on previous ones. While the field has evolved with diverse methods, this rapid surge in diverse methodologies has culminated in a fragmented research landscape. The lack of a unified framework, including inconsistent implementations, conflicting dependencies, and varying evaluation protocols, makes fair comparison and reproducible research increasingly difficult. To address this challenge, we propose LibContinual, a comprehensive and reproducible library designed to serve as a foundational platform for realistic CL. Built upon a high-cohesion, low-coupling modular architecture, LibContinual integrates 19 representative algorithms across five major methodological categories, providing a standardized execution environment. Meanwhile, leveraging this unified framework, we systematically identify and investigate three implicit assumptions prevalent in mainstream evaluation: (1) offline data accessibility, (2) unregulated memory resources, and (3) intra-task semantic homogeneity. We argue that these assumptions often overestimate the real-world applicability of CL methods. Through our comprehensive analysis using strict online CL settings, a novel unified memory budget protocol, and a proposed category-randomized setting, we reveal significant performance drops in many representative CL methods when subjected to these real-world constraints. Our study underscores the necessity of resource-aware and semantically robust CL strategies, and offers LibContinual as a foundational toolkit for future research in realistic continual learning. The source code is available from \href{https://github.com/RL-VIG/LibContinual}{https://github.com/RL-VIG/LibContinual}.


翻译:持续学习中的一个根本性挑战是灾难性遗忘,即模型在适应新任务时,其在先前任务上的性能会下降。尽管该领域已发展出多种方法,但各种方法的迅速涌现导致了研究格局的碎片化。缺乏统一的框架——包括不一致的实现、冲突的依赖项以及不同的评估协议——使得公平比较和可复现研究变得越来越困难。为应对这一挑战,我们提出了LibContinual,一个全面且可复现的库,旨在作为现实持续学习的基础平台。LibContinual基于高内聚、低耦合的模块化架构构建,整合了五大方法类别中的19种代表性算法,提供了标准化的执行环境。同时,利用这一统一框架,我们系统地识别并研究了主流评估中普遍存在的三个隐含假设:(1) 离线数据可访问性,(2) 不受限制的内存资源,以及(3) 任务内语义同质性。我们认为这些假设常常高估了持续学习方法在现实世界中的适用性。通过使用严格的在线持续学习设置、一种新颖的统一内存预算协议以及我们提出的类别随机化设置进行综合分析,我们发现当许多代表性持续学习方法受到这些现实约束时,其性能会出现显著下降。我们的研究强调了资源感知和语义鲁棒的持续学习策略的必要性,并将LibContinual作为未来现实持续学习研究的基础工具包提供。源代码可从 \href{https://github.com/RL-VIG/LibContinual}{https://github.com/RL-VIG/LibContinual} 获取。

0
下载
关闭预览

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员