Video Large Language Models (VideoLLMs) are increasingly deployed on numerous critical applications, where users rely on auto-generated summaries while casually skimming the video stream. We show that this interaction hides a critical safety gap: if harmful content is embedded in a video, either as full-frame inserts or as small corner patches, state-of-the-art VideoLLMs rarely mention the harmful content in the output, despite its clear visibility to human viewers. A root-cause analysis reveals three compounding design flaws: (1) insufficient temporal coverage resulting from the sparse, uniformly spaced frame sampling used by most leading VideoLLMs, (2) spatial information loss introduced by aggressive token downsampling within sampled frames, and (3) encoder-decoder disconnection, whereby visual cues are only weakly utilized during text generation. Leveraging these insights, we craft three zero-query black-box attacks, aligning with these flaws in the processing pipeline. Our large-scale evaluation across five leading VideoLLMs shows that the harmfulness omission rate exceeds 90% in most cases. Even when harmful content is clearly present in all frames, these models consistently fail to identify it. These results underscore a fundamental vulnerability in current VideoLLMs' designs and highlight the urgent need for sampling strategies, token compression, and decoding mechanisms that guarantee semantic coverage rather than speed alone.


翻译:视频大语言模型(VideoLLMs)正日益广泛地部署于众多关键应用中,用户通常依赖其自动生成的摘要来快速浏览视频流。本文揭示这种交互模式隐藏着一个关键的安全漏洞:若视频中嵌入有害内容(无论是全帧插入还是角落小区域贴片),即使这些内容对人类观察者清晰可见,当前最先进的VideoLLMs在输出中却极少提及有害内容。根本原因分析揭示了三个相互叠加的设计缺陷:(1)多数主流VideoLLMs采用的稀疏均匀帧采样策略导致时间覆盖不足;(2)采样帧内激进的令牌下采样引发空间信息丢失;(3)编码器-解码器脱节,即文本生成过程中视觉线索仅被弱化利用。基于这些发现,我们设计了三种零查询黑盒攻击方法,分别针对处理流程中的上述缺陷。在五种主流VideoLLMs上的大规模评估表明,在多数情况下有害内容遗漏率超过90%。即使有害内容明确存在于所有帧中,这些模型仍持续无法识别。这些结果凸显了当前VideoLLMs设计中的根本性脆弱点,并迫切要求采样策略、令牌压缩及解码机制应确保语义覆盖性,而非仅追求处理速度。

0
下载
关闭预览

相关内容

【WWW2024】GraphPro:推荐系统中的图预训练与提示学习
专知会员服务
23+阅读 · 2024年1月26日
【ICML2022】DRIBO:基于多视图信息瓶颈的鲁棒深度强化学习
Polygon-RNN++图像分割数据集自动标注
论智
10+阅读 · 2018年8月16日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Polygon-RNN++图像分割数据集自动标注
论智
10+阅读 · 2018年8月16日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员