Autonomous driving has achieved a significant milestone in research and development over the last decade. There is increasing interest in the field as the deployment of self-operating vehicles on roads promises safer and more ecologically friendly transportation systems. With the rise of computationally powerful artificial intelligence (AI) techniques, autonomous vehicles can sense their environment with high precision, make safe real-time decisions, and operate more reliably without human interventions. However, intelligent decision-making in autonomous cars is not generally understandable by humans in the current state of the art, and such deficiency hinders this technology from being socially acceptable. Hence, aside from making safe real-time decisions, the AI systems of autonomous vehicles also need to explain how these decisions are constructed in order to be regulatory compliant across many jurisdictions. Our study sheds a comprehensive light on developing explainable artificial intelligence (XAI) approaches for autonomous vehicles. In particular, we make the following contributions. First, we provide a thorough overview of the present gaps with respect to explanations in the state-of-the-art autonomous vehicle industry. We then show the taxonomy of explanations and explanation receivers in this field. Thirdly, we propose a framework for an architecture of end-to-end autonomous driving systems and justify the role of XAI in both debugging and regulating such systems. Finally, as future research directions, we provide a field guide on XAI approaches for autonomous driving that can improve operational safety and transparency towards achieving public approval by regulators, manufacturers, and all engaged stakeholders.


翻译:过去十年来,自主驾驶在研发方面取得了一个重大里程碑,对该领域的兴趣日益浓厚,因为在道路上部署自操作车辆将带来更安全和更无害生态的运输系统。随着计算强大的人工智能(AI)技术的崛起,自主车辆可以高精准地感知其环境,作出安全的实时决定,在没有人类干预的情况下更可靠地运作。然而,自主驾驶汽车的智能决策在目前先进状态下一般无法为人所理解,这种缺陷阻碍了这种技术在社会上被接受。因此,除了安全实时决策之外,自主车辆的AI系统还需要解释这些决定是如何构建的,以便在许多管辖区遵守监管。我们的研究全面揭示了为自主车辆开发可解释的人工智能(XAI)方法的全面思路。特别是我们作出以下贡献:首先,我们透彻地概述目前人类在解释最新自主车辆行业中的差距,这种缺陷阻碍了这种技术在社会上的可接受性。我们随后展示了该领域解释和解释的接受者的分类和解释性。第三,我们提出了一个框架,用以构建一个最终驱动AAI研究方向的架构,从而实现A型自主驱动系统,从而实现AA型系统的未来方向。

18
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
CCF C类 | DSAA 2019 诚邀稿件
Call4Papers
6+阅读 · 2019年5月13日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年10月16日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
Arxiv
12+阅读 · 2021年6月21日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
VIP会员
相关资讯
CCF C类 | DSAA 2019 诚邀稿件
Call4Papers
6+阅读 · 2019年5月13日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年10月16日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
Top
微信扫码咨询专知VIP会员