Due to the model aging problem, Deep Neural Networks (DNNs) need updates to adjust them to new data distributions. The common practice leverages incremental learning (IL), e.g., Class-based Incremental Learning (CIL) that updates output labels, to update the model with new data and a limited number of old data. This avoids heavyweight training (from scratch) using conventional methods and saves storage space by reducing the number of old data to store. But it also leads to poor performance in fairness. In this paper, we show that CIL suffers both dataset and algorithm bias problems, and existing solutions can only partially solve the problem. We propose a novel framework, CILIATE, that fixes both dataset and algorithm bias in CIL. It features a novel differential analysis guided dataset and training refinement process that identifies unique and important samples overlooked by existing CIL and enforces the model to learn from them. Through this process, CILIATE improves the fairness of CIL by 17.03%, 22.46%, and 31.79% compared to state-of-the-art methods, iCaRL, BiC, and WA, respectively, based on our evaluation on three popular datasets and widely used ResNet models.


翻译:由于模型老化问题,深度神经网络(DNN)需要更新以适应新的数据分布。常见做法是采用基于类别的增量学习(CIL),如更新输出标签,以使用新数据和有限数量的旧数据更新模型。这避免了使用传统方法进行庞大的训练(从头开始)并通过减少旧数据的数量来节省存储空间。但是,它也导致公平性表现较差。本文展示了CIL存在数据集和算法偏差问题,现有的解决方法只能部分解决问题。我们提出了一种新颖的框架CILIATE,用于修复CIL中的数据集和算法偏差。它采用了一种新颖的差分分析引导的数据集和训练细化过程,该过程可以识别现有CIL忽略的独特和重要的样本,并强制模型从中学习。通过这个过程,CILIATE相对于最先进的方法iCaRL、BiC和WA,基于我们在三个流行数据集和广泛使用的ResNet模型上的评估,提高了CIL的公平性分别为17.03%、22.46%和31.79%。

0
下载
关闭预览

相关内容

专知会员服务
10+阅读 · 2021年3月21日
【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月25日
Arxiv
12+阅读 · 2023年2月7日
Arxiv
126+阅读 · 2020年9月6日
VIP会员
相关VIP内容
专知会员服务
10+阅读 · 2021年3月21日
【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员