目前大多数异常检测模型都假定正常模式一直保持不变。然而,Web服务的正常模式经常发生剧烈变化。在旧分布数据上训练的模型在这些变化后已经过时。每次重新训练整个模型都是昂贵的。此外,在正常模式发生变化的初期,新分布的观察数据不足。使用有限数据重新训练大型神经网络模型容易出现过拟合。因此,我们提出了一种基于深度变分自编码器的轻量级防过拟合重新训练方法(LARA)用于时间序列异常检测。本工作旨在做出三个新颖的贡献:1)重新训练过程被形式化为一个凸问题,可以快速收敛并防止过拟合;2)设计了一个反思块,利用历史数据而无需存储它们;3)在数学上和实验上证明,当微调潜在向量和重构数据时,线性形式可以实现地面真实值和微调值之间的最小调整误差。此外,我们进行了许多实验来验证,即使使用来自新分布的43个时间槽的数据重新训练LARA,其在与使用充分数据训练的最先进的异常检测模型进行比较时也能实现竞争性的F1分数。此外,我们验证了它的轻量级开销。

成为VIP会员查看完整内容
23

相关内容

【WWW2024】知识数据对齐的弱监督异常检测
专知会员服务
18+阅读 · 2月7日
【CVPR2023】GeoLayoutLM:视觉信息提取的几何预训练
专知会员服务
29+阅读 · 2023年4月25日
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
20+阅读 · 2021年11月29日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
16+阅读 · 2021年9月7日
专知会员服务
38+阅读 · 2021年5月16日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
15+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【WWW2024】知识数据对齐的弱监督异常检测
专知会员服务
18+阅读 · 2月7日
【CVPR2023】GeoLayoutLM:视觉信息提取的几何预训练
专知会员服务
29+阅读 · 2023年4月25日
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
20+阅读 · 2021年11月29日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
16+阅读 · 2021年9月7日
专知会员服务
38+阅读 · 2021年5月16日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员