Autonomous vehicles rely on LiDAR based perception to support safety critical control functions such as adaptive cruise control and automatic emergency braking. While previous research has shown that LiDAR perception can be manipulated through object based spoofing and injection attacks, the impact of such attacks on vehicle safety controllers is still not well understood. This paper presents a systematic failure analysis of longitudinal safety controllers under object based LiDAR attacks in highway driving scenarios. The study focuses on realistic cut in and car following situations in which adversarial objects introduce persistent perception errors without directly modifying vehicle control software. A high fidelity simulation framework integrating LiDAR perception, object tracking, and closed loop vehicle control is used to evaluate how false and displaced object detections propagate through the perception planning and control pipeline. The results demonstrate that even short duration LiDAR induced object hallucinations can trigger unsafe braking, delayed responses to real hazards, and unstable control behavior. In cut in scenarios, a clear increase in unsafe deceleration events and time to collision violations is observed when compared to benign conditions, despite identical controller parameters. The analysis further shows that controller failures are more strongly influenced by the temporal consistency of spoofed objects than by spatial inaccuracies alone. These findings reveal a critical gap between perception robustness and control level safety guarantees in autonomous driving systems. By explicitly characterizing safety controller failure modes under adversarial perception, this work provides practical insights for the design of attack aware safety mechanisms and more resilient control strategies for LiDAR dependent autonomous vehicles.


翻译:自动驾驶车辆依赖基于LiDAR的感知系统来支持自适应巡航控制与自动紧急制动等安全关键控制功能。尽管已有研究表明可通过目标型欺骗与注入攻击操纵LiDAR感知,但此类攻击对车辆安全控制器的影响机制尚未得到充分理解。本文针对高速公路驾驶场景中目标型LiDAR攻击下的纵向安全控制器,开展了系统性失效分析。研究聚焦于现实中的切入跟车场景,其中对抗性目标在不直接修改车辆控制软件的前提下,持续引入感知误差。通过集成LiDAR感知、目标追踪与闭环车辆控制的高保真仿真框架,评估了虚假目标与位移目标检测在感知-规划-控制流程中的传播效应。结果表明,即使短时存在的LiDAR诱导目标幻象也能引发不安全制动、对真实危险的反应延迟及控制行为失稳。在切入场景中,与正常条件相比(尽管控制器参数完全相同),可观察到不安全减速事件与碰撞时间违规的显著增加。分析进一步揭示,欺骗目标的时间一致性对控制器失效的影响,远超过单纯空间定位误差的影响。这些发现揭示了自动驾驶系统中感知鲁棒性与控制层安全保障之间的关键断层。通过明确表征对抗性感知下的安全控制器失效模式,本研究为依赖LiDAR的自动驾驶车辆提供了设计攻击感知型安全机制与更具韧性的控制策略的实践启示。

0
下载
关闭预览

相关内容

DeepSeek模型综述:V1 V2 V3 R1-Zero
专知会员服务
116+阅读 · 2月11日
初学者系列:Deep FM详解
专知
109+阅读 · 2019年8月26日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员