Recently, driven by advancements in Multimodal Large Language Models (MLLMs), Vision Language Action Models (VLAMs) are being proposed to achieve better performance in open-vocabulary scenarios for robotic manipulation tasks. Since manipulation tasks involve direct interaction with the physical world, ensuring robustness and safety during the execution of this task is always a very critical issue. In this paper, by synthesizing current safety research on MLLMs and the specific application scenarios of the manipulation task in the physical world, we comprehensively evaluate VLAMs in the face of potential physical threats. Specifically, we propose the Physical Vulnerability Evaluating Pipeline (PVEP) that can incorporate as many visual modal physical threats as possible for evaluating the physical robustness of VLAMs. The physical threats in PVEP specifically include Out-of-Distribution, Typography-based Visual Prompt, and Adversarial Patch Attacks. By comparing the performance fluctuations of VLAMs before and after being attacked, we provide generalizable \textbf{\textit{Analyses}} of how VLAMs respond to different physical threats.


翻译:近年来,受多模态大语言模型(MLLMs)进展的推动,视觉语言动作模型(VLAMs)被提出,以在机器人操控任务的开放词汇场景中实现更优性能。由于操控任务涉及与物理世界的直接交互,确保任务执行过程中的鲁棒性与安全性始终是一个至关重要的议题。本文通过综合当前MLLMs的安全研究及操控任务在物理世界中的具体应用场景,全面评估了VLAMs面对潜在物理威胁时的表现。具体而言,我们提出了物理脆弱性评估流程(PVEP),该流程能够整合尽可能多的视觉模态物理威胁,以评估VLAMs的物理鲁棒性。PVEP中的物理威胁具体包括分布外数据、基于排版的视觉提示以及对抗性补丁攻击。通过比较VLAMs在遭受攻击前后的性能波动,我们提供了关于VLAMs如何响应不同物理威胁的普适性分析。

0
下载
关闭预览

相关内容

在无标注条件下适配视觉—语言模型:全面综述
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员