领域增量学习(Domain-Incremental Learning,DIL)旨在应对非平稳环境中的持续学习问题,要求模型能够适应不断变化的领域,同时保留已有的历史知识。在面对不平衡数据时,DIL 面临两个关键挑战:域内类别不平衡跨域类别分布转移。这些挑战严重阻碍了模型性能的发挥:域内不平衡会导致少样本类别的欠拟合,而跨域分布转移则要求模型在保持多样本类别知识的基础上,提升旧领域中少样本类别的表现。 为解决上述问题,本文提出了双重平衡协同专家(Dual-Balance Collaborative Experts, DCE)框架。DCE 引入了一个频率感知的专家组,每个专家通过特定的损失函数进行引导,学习对应频率组的特征,从而有效应对域内类别不平衡问题。随后,DCE 通过对历史类别统计信息进行平衡高斯采样,合成伪特征,从而学习一个动态专家选择器。该机制在“保留旧领域中多样本类别知识”与“利用新数据提升旧任务中少样本类别性能”之间实现了有效权衡。 在四个基准数据集上的广泛实验结果表明,DCE 在不平衡领域增量学习任务中达到了当前最先进的性能水平。

成为VIP会员查看完整内容
10

相关内容

【WWW2024】知识数据对齐的弱监督异常检测
专知会员服务
23+阅读 · 2024年2月7日
【CIKM2023】利用知识和强化学习提升语言模型的可靠性
专知会员服务
47+阅读 · 2023年9月20日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
17+阅读 · 2022年3月17日
专知会员服务
38+阅读 · 2021年4月25日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
相关论文
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
19+阅读 · 2018年10月25日
微信扫码咨询专知VIP会员