深度卷积神经网络在医疗图像分类中取得了显著突破,假设所有类别的训练样本可以同时获得。然而,在现实世界的医疗场景中,通常需要不断学习新的疾病,这催生了医疗领域中类增量学习(Class Incremental Learning,CIL)的新兴领域。通常,CIL在训练新类别时会遭遇灾难性遗忘。这种现象主要是由于新旧类别之间的不平衡引起的,在不平衡的医疗数据集中这一问题尤为严重。在这项工作中,我们引入了两个简单但有效的插件方法来减轻不平衡的负面影响。首先,我们提出了一种CIL平衡分类损失,通过对logit调整来减轻分类器对多数类别的偏见。其次,我们提出了一种分布边界损失,不仅缓解了嵌入空间中的类间重叠,还加强了类内紧凑性。我们在三个基准数据集(CCH5000,HAM10000,和EyePACS)上进行了广泛的实验,以评估我们方法的有效性。结果表明,我们的方法优于最新的状态-of-the-art方法。

成为VIP会员查看完整内容
16

相关内容

ACM 国际多媒体大会(英文名称:ACM Multimedia,简称:ACM MM)是多媒体领域的顶级国际会议,每年举办一次。
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
19+阅读 · 2023年1月18日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
【ICCV2021】多层次对比学习的跨模态检索方法
专知会员服务
22+阅读 · 2021年10月24日
专知会员服务
14+阅读 · 2021年8月2日
专知会员服务
40+阅读 · 2021年6月10日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
61+阅读 · 2021年4月21日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
19+阅读 · 2023年1月18日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
【ICCV2021】多层次对比学习的跨模态检索方法
专知会员服务
22+阅读 · 2021年10月24日
专知会员服务
14+阅读 · 2021年8月2日
专知会员服务
40+阅读 · 2021年6月10日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
61+阅读 · 2021年4月21日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员