Reconstruction-based approaches to anomaly detection tend to fall short when applied to complex datasets with target classes that possess high inter-class variance. Similar to the idea of self-taught learning used in transfer learning, many domains are rich with \textit{similar} unlabeled datasets that could be leveraged as a proxy for out-of-distribution samples. In this paper we introduce Latent-Insensitive Autoencoder (LIS-AE) where unlabeled data from a similar domain is utilized as negative examples to shape the latent layer (bottleneck) of a regular autoencoder such that it is only capable of reconstructing one task. Since the underlying goal of LIS-AE is to only reconstruct in-distribution samples, this makes it naturally applicable in the domain of class-incremental learning. We treat class-incremental learning as multiple anomaly detection tasks by adding a different latent layer for each class and use other available classes in task as negative examples to shape each latent layer. We test our model in multiple anomaly detection and class-incremental settings presenting quantitative and qualitative analysis showcasing the accuracy and the flexibility of our model for both anomaly detection and class-incremental learning.


翻译:异常点检测的基于重建的方法在应用到具有高等级差异的目标类别的目标类的复杂数据集时往往不尽如人意。与在转移学习中使用的自我学习概念类似,许多领域都拥有可以用作分配外抽样替代工具的“textit{相似}无标签数据集”。在本文中,我们引入了“低级不敏感自动编码”(LIS-AE),将来自类似领域的未贴标签数据用作负面例子,以形成常规自动编码器的潜层(瓶颈),使其只能重建一项任务。由于LIS-AE的基本目标是只重建分布内样本,因此它自然地适用于类内学习领域。我们将类中偏执学习视为多重异常检测任务,为每个类添加不同的潜伏层,并将其他可用任务类作为塑造每个潜在层的负面例子。我们用多种异常检测模型和显示定量和定性分析的分类环境来测试我们的模型,以显示在定量和定性分析中显示异常度的检测和灵活性。

0
下载
关闭预览

相关内容

在数据挖掘中,异常检测(英语:anomaly detection)对不符合预期模式或数据集中其他项目的项目、事件或观测值的识别。通常异常项目会转变成银行欺诈、结构缺陷、医疗问题、文本错误等类型的问题。异常也被称为离群值、新奇、噪声、偏差和例外。 特别是在检测滥用与网络入侵时,有趣性对象往往不是罕见对象,但却是超出预料的突发活动。这种模式不遵循通常统计定义中把异常点看作是罕见对象,于是许多异常检测方法(特别是无监督的方法)将对此类数据失效,除非进行了合适的聚集。相反,聚类分析算法可能可以检测出这些模式形成的微聚类。 有三大类异常检测方法。[1] 在假设数据集中大多数实例都是正常的前提下,无监督异常检测方法能通过寻找与其他数据最不匹配的实例来检测出未标记测试数据的异常。监督式异常检测方法需要一个已经被标记“正常”与“异常”的数据集,并涉及到训练分类器(与许多其他的统计分类问题的关键区别是异常检测的内在不均衡性)。半监督式异常检测方法根据一个给定的正常训练数据集创建一个表示正常行为的模型,然后检测由学习模型生成的测试实例的可能性。
专知会员服务
32+阅读 · 2021年9月16日
异常检测(Anomaly Detection)综述
极市平台
19+阅读 · 2020年10月24日
已删除
将门创投
4+阅读 · 2019年9月10日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Arxiv
21+阅读 · 2020年10月11日
Learning Memory-guided Normality for Anomaly Detection
Deep Anomaly Detection with Outlier Exposure
Arxiv
17+阅读 · 2018年12月21日
q-Space Novelty Detection with Variational Autoencoders
Arxiv
8+阅读 · 2018年4月12日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年9月16日
相关资讯
异常检测(Anomaly Detection)综述
极市平台
19+阅读 · 2020年10月24日
已删除
将门创投
4+阅读 · 2019年9月10日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
相关论文
Arxiv
21+阅读 · 2020年10月11日
Learning Memory-guided Normality for Anomaly Detection
Deep Anomaly Detection with Outlier Exposure
Arxiv
17+阅读 · 2018年12月21日
q-Space Novelty Detection with Variational Autoencoders
Arxiv
8+阅读 · 2018年4月12日
Top
微信扫码咨询专知VIP会员