Video Anomaly Detection (VAD) aims to locate events that deviate from normal patterns in videos. Traditional approaches often rely on extensive labeled data and incur high computational costs. Recent tuning-free methods based on Multimodal Large Language Models (MLLMs) offer a promising alternative by leveraging their rich world knowledge. However, these methods typically rely on textual outputs, which introduces information loss, exhibits normalcy bias, and suffers from prompt sensitivity, making them insufficient for capturing subtle anomalous cues. To address these constraints, we propose HeadHunt-VAD, a novel tuning-free VAD paradigm that bypasses textual generation by directly hunting robust anomaly-sensitive internal attention heads within the frozen MLLM. Central to our method is a Robust Head Identification module that systematically evaluates all attention heads using a multi-criteria analysis of saliency and stability, identifying a sparse subset of heads that are consistently discriminative across diverse prompts. Features from these expert heads are then fed into a lightweight anomaly scorer and a temporal locator, enabling efficient and accurate anomaly detection with interpretable outputs. Extensive experiments show that HeadHunt-VAD achieves state-of-the-art performance among tuning-free methods on two major VAD benchmarks while maintaining high efficiency, validating head-level probing in MLLMs as a powerful and practical solution for real-world anomaly detection.


翻译:视频异常检测旨在定位视频中偏离正常模式的事件。传统方法通常依赖大量标注数据且计算成本高昂。基于多模态大语言模型的近期免调优方法,通过利用其丰富的世界知识,提供了一种有前景的替代方案。然而,这些方法通常依赖文本输出,这引入了信息损失、表现出正常性偏差并受制于提示敏感性,使其不足以捕捉细微的异常线索。为解决这些限制,我们提出了HeadHunt-VAD,一种新颖的免调优VAD范式,它绕过文本生成,直接在冻结的MLLM内部搜寻鲁棒的异常敏感的内部注意力头。我们方法的核心是一个鲁棒头识别模块,该模块通过显著性和稳定性的多准则分析,系统地评估所有注意力头,识别出一个稀疏的、在不同提示下均具有一致判别性的头部子集。这些专家头的特征随后被输入一个轻量级异常评分器和一个时序定位器,从而实现高效、准确且输出可解释的异常检测。大量实验表明,HeadHunt-VAD在两个主要VAD基准测试中,在免调优方法中取得了最先进的性能,同时保持了高效率,验证了在MLLM中进行头级探测是现实世界异常检测的一种强大且实用的解决方案。

0
下载
关闭预览

相关内容

Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员