Continual learning aims to acquire new tasks while preserving performance on previously learned ones, but most methods struggle with catastrophic forgetting. Existing approaches typically treat all layers uniformly, often trading stability for plasticity or vice versa. However, different layers naturally exhibit varying levels of uncertainty (entropy) when classifying tasks. High-entropy layers tend to underfit by failing to capture task-specific patterns, while low-entropy layers risk overfitting by becoming overly confident and specialized. To address this imbalance, we propose an entropy-aware continual learning method that employs a dynamic feedback mechanism to regulate each layer based on its entropy. Specifically, our approach reduces entropy in high-entropy layers to mitigate underfitting and increases entropy in overly confident layers to alleviate overfitting. This adaptive regulation encourages the model to converge to wider local minima, which have been shown to improve generalization. Our method is general and can be seamlessly integrated with both replay- and regularization-based approaches. Experiments on various datasets demonstrate substantial performance gains over state-of-the-art continual learning baselines.


翻译:持续学习旨在获取新任务的同时保持对已学任务的性能,但大多数方法都面临灾难性遗忘的挑战。现有方法通常对所有层进行统一处理,往往以稳定性换取可塑性,或反之。然而,不同层在分类任务时自然表现出不同程度的熵(不确定性)。高熵层倾向于因未能捕捉任务特定模式而欠拟合,而低熵层则因变得过度自信和专门化而面临过拟合风险。为解决这种不平衡,我们提出一种基于熵感知的持续学习方法,采用动态反馈机制根据每层的熵对其进行调节。具体而言,我们的方法通过降低高熵层的熵来缓解欠拟合,并通过增加过度自信层的熵来减轻过拟合。这种自适应调节促使模型收敛到更宽的局部极小值,而更宽的极小值已被证明能提升泛化能力。我们的方法具有通用性,可无缝集成于基于回放和基于正则化的两类方法中。在多个数据集上的实验表明,相较于最先进的持续学习基线方法,本方法取得了显著的性能提升。

0
下载
关闭预览

相关内容

【ACMMM2024】用于多媒体推荐的模态平衡学习"
专知会员服务
13+阅读 · 2024年8月14日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员