持续学习旨在在非平稳数据流上进行学习,而不会灾难性地忘记之前的知识。流行的基于重放的方法通过在一个保存已见数据的小缓冲区上排练来解决这一挑战,为此需要一个精细的样本选择策略。然而,现有的选择方案通常只寻求当前选择的效用最大化,而忽略了连续几轮选择之间的干扰。受此启发,在一个建立在影响函数上的框架内,剖析了顺序选择步骤的相互作用。本文设法确定了一类新的二阶影响,它将逐渐放大重播缓冲区中的偶然偏差,并损害选择过程。为了正则化二阶效应,提出了一个新的选择目标,它也与两个广泛采用的准则有明确的联系。此外,还提出了一种高效的实现方法来优化所提出的准则。在多个持续学习基准上的实验表明,所提出方法比最先进的方法具有优势。代码可以在https://github.com/ feifeiobama/InfluenceCL找到。
https://www.zhuanzhi.ai/paper/28e20eefe083e1afdda340661412ac46