Video anomaly detection (VAD) has long been studied as a crucial problem in public security and crime prevention. In recent years, weakly-supervised VAD (WVAD) have attracted considerable attention due to their easy annotation process and promising research results. While existing WVAD methods tackle mainly on static datasets, the possibility that the domain of data can vary has been neglected. To adapt such domain-shift, the continual learning (CL) perspective is required because otherwise additional training only with new coming data could easily cause performance degradation for previous data, i.e., forgetting. Therefore, we propose a brand-new approach, called Continual Anomaly Detection with Ensembles (CADE) that is the first work combining CL and WVAD viewpoints. Specifically, CADE uses the Dual-Generator(DG) to address data imbalance and label uncertainty in WVAD. We also found that forgetting exacerbates the "incompleteness'' where the model becomes biased towards certain anomaly modes, leading to missed detections of various anomalies. To address this, we propose to ensemble Multi-Discriminator (MD) that capture missed anomalies in past scenes due to forgetting, using multiple models. Extensive experiments show that CADE significantly outperforms existing VAD methods on the common multi-scene VAD datasets, such as ShanghaiTech and Charlotte Anomaly datasets.


翻译:视频异常检测(VAD)长期以来一直是公共安全与犯罪预防领域的关键研究问题。近年来,弱监督视频异常检测(WVAD)因其标注过程简便且研究成果显著而受到广泛关注。现有WVAD方法主要针对静态数据集,却忽视了数据域可能发生变化的情况。为适应此类域偏移,需要引入持续学习(CL)视角,因为仅使用新增数据进行额外训练极易导致对先前数据的性能下降,即遗忘现象。为此,我们提出一种全新方法——集成持续异常检测(CADE),这是首个融合CL与WVAD视角的研究工作。具体而言,CADE采用双生成器(DG)处理WVAD中的数据不平衡与标签不确定性问题。我们还发现,遗忘会加剧模型的“不完整性”,即模型偏向特定异常模式,导致多种异常漏检。为解决该问题,我们提出集成多判别器(MD),通过多个模型捕获因遗忘而遗漏的历史场景异常。大量实验表明,在ShanghaiTech、Charlotte Anomaly等多场景VAD常用数据集上,CADE显著优于现有VAD方法。

0
下载
关闭预览

相关内容

国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员