Predicting the trajectories of surrounding objects is a critical task for self-driving vehicles and many other autonomous systems. Recent works demonstrate that adversarial attacks on trajectory prediction, where small crafted perturbations are introduced to history trajectories, may significantly mislead the prediction of future trajectories and induce unsafe planning. However, few works have addressed enhancing the robustness of this important safety-critical task.In this paper, we present a novel adversarial training method for trajectory prediction. Compared with typical adversarial training on image tasks, our work is challenged by more random input with rich context and a lack of class labels. To address these challenges, we propose a method based on a semi-supervised adversarial autoencoder, which models disentangled semantic features with domain knowledge and provides additional latent labels for the adversarial training. Extensive experiments with different types of attacks demonstrate that our Semisupervised Semantics-guided Adversarial Training (SSAT) method can effectively mitigate the impact of adversarial attacks by up to 73% and outperform other popular defense methods. In addition, experiments show that our method can significantly improve the system's robust generalization to unseen patterns of attacks. We believe that such semantics-guided architecture and advancement on robust generalization is an important step for developing robust prediction models and enabling safe decision-making.


翻译:预测周围物体的轨迹是自动驾驶车辆和许多其他自主系统的关键任务。最近的研究表明,对轨迹预测进行的对抗攻击(通过小的定制扰动引入历史轨迹)可能会显著误导未来轨迹的预测并引发不安全的规划。然而,很少有研究解决了增强这一重要的安全关键任务的鲁棒性。 本文提出了一种新的轨迹预测对抗训练方法。与典型的用于图像任务的对抗性训练相比,我们的工作面临更多随机输入、丰富的上下文和缺乏类标签的挑战。为了应对这些挑战,我们提出了一种基于半监督对抗自编码器的方法,该方法使用领域知识建模分离的语义特征,并为对抗性训练提供额外的潜在标签。通过不同类型的攻击进行的广泛实验表明,我们的半监督语义引导对抗训练(SSAT)方法可以通过高达73%有效地减轻对抗攻击的影响,并胜过其他流行的防御方法。此外,实验证明,我们的方法可以显著提高系统对未知攻击模式的鲁棒推广能力。我们相信,这种语义引导的体系结构和鲁棒推广的进步是开发鲁棒预测模型和实现安全决策的重要一步。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年9月16日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
47+阅读 · 2020年7月4日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年9月16日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
47+阅读 · 2020年7月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员