持续学习(CL)循序渐进地学习一系列任务。有两种流行的CL设置,类增量学习(CIL)和任务增量学习(TIL)。记忆的一个主要挑战是灾难性遗忘(CF)。虽然有几种技术可以有效地克服TIL的CF,但由于任务间类分离的额外困难,CIL仍然具有挑战性。到目前为止,很少有理论工作为解决信息网络问题提供原则性指导和充分必要条件。本文就进行了这样的研究。该方法首先将任务信息信息问题概率地分解为两个子问题:任务内预测(WP)和任务ID预测(TP)。进一步证明TP与分布不均(OOD)检测相关。关键的结果是,无论一个CIL算法显式或隐式地定义了WP和TP或OOD检测,良好的WP和良好的TP或OOD检测对于良好的CIL性能都是必要和充分的。此外,TIL就是WP。基于理论结果,还设计了新的CIL方法,在CIL和TIL设置下,其性能都大大优于强基线。

https://arxiv.org/pdf/2211.02633.pdf

成为VIP会员查看完整内容
31

相关内容

【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
84+阅读 · 2022年10月19日
【NeurIPS2022】SparCL:边缘稀疏持续学习
专知会员服务
24+阅读 · 2022年9月22日
【NeurIPS2021】InfoGCL:信息感知图对比学习
专知会员服务
37+阅读 · 2021年11月1日
持续学习最新综述论文,29页pdf
专知会员服务
122+阅读 · 2021年4月22日
专知会员服务
33+阅读 · 2020年10月2日
【NeurIPS2022】分布外序列事件预测:因果处理
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
【NeurIPS2022】SparCL:边缘稀疏持续学习
专知
2+阅读 · 2022年9月22日
【NeurIPS2021】InfoGCL:信息感知图对比学习
图与推荐
1+阅读 · 2021年11月3日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年12月28日
Arxiv
70+阅读 · 2022年6月30日
Arxiv
26+阅读 · 2020年2月21日
Meta-Learning to Cluster
Arxiv
18+阅读 · 2019年10月30日
Generative Adversarial Networks: A Survey and Taxonomy
VIP会员
相关VIP内容
【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
84+阅读 · 2022年10月19日
【NeurIPS2022】SparCL:边缘稀疏持续学习
专知会员服务
24+阅读 · 2022年9月22日
【NeurIPS2021】InfoGCL:信息感知图对比学习
专知会员服务
37+阅读 · 2021年11月1日
持续学习最新综述论文,29页pdf
专知会员服务
122+阅读 · 2021年4月22日
专知会员服务
33+阅读 · 2020年10月2日
相关资讯
【NeurIPS2022】分布外序列事件预测:因果处理
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
【NeurIPS2022】SparCL:边缘稀疏持续学习
专知
2+阅读 · 2022年9月22日
【NeurIPS2021】InfoGCL:信息感知图对比学习
图与推荐
1+阅读 · 2021年11月3日
相关基金
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2022年12月28日
Arxiv
70+阅读 · 2022年6月30日
Arxiv
26+阅读 · 2020年2月21日
Meta-Learning to Cluster
Arxiv
18+阅读 · 2019年10月30日
Generative Adversarial Networks: A Survey and Taxonomy
微信扫码咨询专知VIP会员