Existing anomaly detection paradigms overwhelmingly focus on training detection models using exclusively normal data or unlabeled data (mostly normal samples). One notorious issue with these approaches is that they are weak in discriminating anomalies from normal samples due to the lack of the knowledge about the anomalies. Here, we study the problem of few-shot anomaly detection, in which we aim at using a few labeled anomaly examples to train sample-efficient discriminative detection models. To address this problem, we introduce a novel weakly-supervised anomaly detection framework to train detection models without assuming the examples illustrating all possible classes of anomaly. Specifically, the proposed approach learns discriminative normality (regularity) by leveraging the labeled anomalies and a prior probability to enforce expressive representations of normality and unbounded deviated representations of abnormality. This is achieved by an end-to-end optimization of anomaly scores with a neural deviation learning, in which the anomaly scores of normal samples are imposed to approximate scalar scores drawn from the prior while that of anomaly examples is enforced to have statistically significant deviations from these sampled scores in the upper tail. Furthermore, our model is optimized to learn fine-grained normality and abnormality by top-K multiple-instance-learning-based feature subspace deviation learning, allowing more generalized representations. Comprehensive experiments on nine real-world image anomaly detection benchmarks show that our model is substantially more sample-efficient and robust, and performs significantly better than state-of-the-art competing methods in both closed-set and open-set settings. Our model can also offer explanation capability as a result of its prior-driven anomaly score learning. Code and datasets are available at: https://git.io/DevNet.


翻译:现有异常检测模式主要侧重于培训检测模型,使用完全正常的数据或未贴标签的数据(大多是正常的样本)来培训检测模型。这些方法的一个臭名昭著的问题是,由于对异常缺乏了解,这些方法在区别正常样本中的异常现象方面表现不力。在这里,我们研究少发的异常现象检测问题,我们的目标是利用几个贴上标签的异常实例来培训具有样本效率的歧视性检测模型。为了解决这一问题,我们引入了一个新颖的、不甚严密监督的异常现象检测框架,以培训检测模型,而不必假设所有可能的异常类别的示例。具体地说,拟议方法通过利用标签的异常现象和先前的概率来对正常样本进行区分性异常现象。我们研究的是,通过对异常分数进行端到端的优化,并学习神经偏差的检测模型。正常样本的异常分数比以往的模型分数要高得多,而异常的样本样本则比上尾部的样本分数要高得多。此外,我们的模型和前半闭路的模型都最优化地展示了正常的模型和先入式。

1
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年9月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
异常检测(Anomaly Detection)综述
极市平台
20+阅读 · 2020年10月24日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人脸检测库:libfacedetection
Python程序员
15+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
9+阅读 · 2021年3月3日
Arxiv
16+阅读 · 2021年3月2日
Few-shot Scene-adaptive Anomaly Detection
Arxiv
8+阅读 · 2020年7月15日
Learning Memory-guided Normality for Anomaly Detection
Arxiv
7+阅读 · 2018年12月5日
Arxiv
3+阅读 · 2018年6月14日
Arxiv
7+阅读 · 2018年3月19日
VIP会员
相关资讯
异常检测(Anomaly Detection)综述
极市平台
20+阅读 · 2020年10月24日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人脸检测库:libfacedetection
Python程序员
15+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关论文
Arxiv
9+阅读 · 2021年3月3日
Arxiv
16+阅读 · 2021年3月2日
Few-shot Scene-adaptive Anomaly Detection
Arxiv
8+阅读 · 2020年7月15日
Learning Memory-guided Normality for Anomaly Detection
Arxiv
7+阅读 · 2018年12月5日
Arxiv
3+阅读 · 2018年6月14日
Arxiv
7+阅读 · 2018年3月19日
Top
微信扫码咨询专知VIP会员