深度神经网络在过去几十年里取得了巨大的进步。然而,由于现实世界的数据往往呈现长尾分布,普通深度模型往往严重偏向于大多数类别。为了解决这个问题,最先进的方法通常采用混合专家(MoE)来关注长尾分布的不同部分。这些方法的专家模型深度相同,忽略了不同类别对不同深度模型拟合的偏好可能不同的事实。为此,**提出一种基于知识挖掘的自异构融合方法(Self-Heterogeneous Integration with Knowledge Excavation, SHIKE)。**首先提出深度知识融合(deep Knowledge Fusion, DKF),为每个专家在一个网络中融合不同浅层和深层的特征,使专家在表示上更具多样性;基于DKF,进一步提出动态知识迁移(DKT),以减少最难的负类的影响,在MoE框架中,该类对尾部类有不可忽视的影响。因此,可以显著提高长尾数据的分类精度,特别是对于尾部类。SHIKE在CIFAR100-LT (IF100)、ImageNet-LT、iNaturalist 2018和Places-LT上分别取得了56.3%、60.3%、75.4%和41.9%的最先进性能。源代码可以在https://github.com/jinyan-06/SHIKE上找到。

https://arxiv.org/pdf/2304.01279.pdf

成为VIP会员查看完整内容
15

相关内容

CVPR 2023大会将于 6 月 18 日至 22 日在温哥华会议中心举行。CVPR是IEEE Conference on Computer Vision and Pattern Recognition的缩写,即IEEE国际计算机视觉与模式识别会议。该会议是由IEEE举办的计算机视觉和模式识别领域的顶级会议,会议的主要内容是计算机视觉与模式识别技术。 CVPR 2023 共收到 9155 份提交,比去年增加了 12%,创下新纪录,今年接收了 2360 篇论文,接收率为 25.78%。作为对比,去年有 8100 多篇有效投稿,大会接收了 2067 篇,接收率为 25%。
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
38+阅读 · 2022年4月15日
【CVPR2022】ContrastMask:对比学习来分割各种
专知会员服务
19+阅读 · 2022年3月21日
【CVPR2022】通过特征Mixing进行主动学习
专知会员服务
23+阅读 · 2022年3月15日
【CVPR2022】弱监督目标定位建模为领域适应
专知会员服务
14+阅读 · 2022年3月4日
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
38+阅读 · 2021年5月16日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
【KDD2022】自监督超图Transformer推荐系统
专知
1+阅读 · 2022年8月1日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
12+阅读 · 2022年4月12日
Arxiv
14+阅读 · 2019年9月11日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
13+阅读 · 2018年12月6日
Arxiv
23+阅读 · 2018年10月24日
VIP会员
相关VIP内容
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
38+阅读 · 2022年4月15日
【CVPR2022】ContrastMask:对比学习来分割各种
专知会员服务
19+阅读 · 2022年3月21日
【CVPR2022】通过特征Mixing进行主动学习
专知会员服务
23+阅读 · 2022年3月15日
【CVPR2022】弱监督目标定位建模为领域适应
专知会员服务
14+阅读 · 2022年3月4日
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
38+阅读 · 2021年5月16日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
相关基金
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员