Incremental learning often encounter challenges such as overfitting to new data and catastrophic forgetting of old data. Existing methods can effectively extend the model for new tasks while freezing the parameters of the old model, but ignore the necessity of structural efficiency to lead to the feature difference between modules and the class misalignment due to evolving class distributions. To address these issues, we propose scalable class-incremental learning based on parametric neural collapse (SCL-PNC) that enables demand-driven, minimal-cost backbone expansion by adapt-layer and refines the static into a dynamic parametric Equiangular Tight Frame (ETF) framework according to incremental class. This method can efficiently handle the model expansion question with the increasing number of categories in real-world scenarios. Additionally, to counteract feature drift in serial expansion models, the parallel expansion framework is presented with a knowledge distillation algorithm to align features across expansion modules. Therefore, SCL-PNC can not only design a dynamic and extensible ETF classifier to address class misalignment due to evolving class distributions, but also ensure feature consistency by an adapt-layer with knowledge distillation between extended modules. By leveraging neural collapse, SCL-PNC induces the convergence of the incremental expansion model through a structured combination of the expandable backbone, adapt-layer, and the parametric ETF classifier. Experiments on standard benchmarks demonstrate the effectiveness and efficiency of our proposed method. Our code is available at https://github.com/zhangchuangxin71-cyber/dynamic_ ETF2. Keywords: Class incremental learning; Catastrophic forgetting; Neural collapse;Knowledge distillation; Expanded model.


翻译:增量学习常面临对新数据过拟合和对旧数据灾难性遗忘等挑战。现有方法虽能有效扩展模型以处理新任务,同时冻结旧模型参数,但忽视了结构效率的必要性,导致模块间特征差异及类别分布演化引发的类别错位问题。为解决这些问题,我们提出基于参数化神经坍缩的可扩展类增量学习(SCL-PNC),该方法通过自适应层实现需求驱动、最小成本的主干网络扩展,并根据增量类别将静态参数化等角紧框架(ETF)优化为动态框架。此方法能高效处理现实场景中类别数量增长带来的模型扩展问题。此外,为抑制串行扩展模型中的特征漂移,我们提出并行扩展框架,并采用知识蒸馏算法对齐扩展模块间的特征。因此,SCL-PNC不仅能设计动态可扩展的ETF分类器以应对类别分布演化导致的错位问题,还能通过扩展模块间带知识蒸馏的自适应层确保特征一致性。借助神经坍缩理论,SCL-PNC通过可扩展主干网络、自适应层与参数化ETF分类器的结构化组合,引导增量扩展模型收敛。在标准基准测试上的实验证明了所提方法的有效性与高效性。代码发布于 https://github.com/zhangchuangxin71-cyber/dynamic_ ETF2。关键词:类增量学习;灾难性遗忘;神经坍缩;知识蒸馏;扩展模型。

0
下载
关闭预览

相关内容

【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员