The automotive industry has witnessed an increasing level of development in the past decades; from manufacturing manually operated vehicles to manufacturing vehicles with a high level of automation. With the recent developments in Artificial Intelligence (AI), automotive companies now employ blackbox AI models to enable vehicles to perceive their environments and make driving decisions with little or no input from a human. With the hope to deploy autonomous vehicles (AV) on a commercial scale, the acceptance of AV by society becomes paramount and may largely depend on their degree of transparency, trustworthiness, and compliance with regulations. The assessment of the compliance of AVs to these acceptance requirements can be facilitated through the provision of explanations for AVs' behaviour. Explainability is therefore seen as an important requirement for AVs. AVs should be able to explain what they have 'seen', done, and might do in environments in which they operate. In this paper, we provide a comprehensive survey of the existing body of work around explainable autonomous driving. First, we open with a motivation for explanations by highlighting and emphasising the importance of transparency, accountability, and trust in AVs; and examining existing regulations and standards related to AVs. Second, we identify and categorise the different stakeholders involved in the development, use, and regulation of AVs and elicit their explanation requirements for AV. Third, we provide a rigorous review of previous work on explanations for the different AV operations (i.e., perception, localisation, planning, control, and system management). Finally, we identify pertinent challenges and provide recommendations, such as a conceptual framework for AV explainability. This survey aims to provide the fundamental knowledge required of researchers who are interested in explainability in AVs.


翻译:在过去几十年中,汽车业的发展水平不断提高;从制造人工操作车辆到制造自动化程度较高的车辆。随着人工智能(AI)的最新发展,汽车公司现在采用黑盒子AI模型,使汽车能够感知自己的环境,在很少或根本没有人投入的情况下作出驾驶决定。希望以商业规模部署自主车辆(AV),社会对AV的接受变得至关重要,可能在很大程度上取决于其透明度、可信度和遵守规章的程度。评估AV是否遵守了这些接受要求可以通过为AV的行为提供解释。因此,解释性被视为AV的一个重要要求。AV应该能够解释他们“看到”、做和可能在他们运作的环境下做什么。在本文中,我们对关于解释性机动车辆的现有工作进行了全面调查,这在很大程度上取决于其透明度、可信度和遵守条例的程度。首先,我们愿意通过强调透明度、问责制和信任在AV中的重要性来帮助评估这些接受要求。在AV公司行为的行为中,现有规则和标准被认为是一个重要的要求。在AVA的准确性评估中,我们提出了对A的准确性定义和标准进行解释。在A的正确性评估中,我们提出了关于A的、解释性要求和解释性要求。在AV的操作中进行不同的分析时,我们提出了对A的操作和解释。在A方面进行不同的分析中进行不同的解释。

0
下载
关闭预览

相关内容

最新《生成式对抗网络》简介,25页ppt
专知会员服务
167+阅读 · 2020年6月28日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
学术会议 | 知识图谱顶会 ISWC 征稿:Poster/Demo
开放知识图谱
5+阅读 · 2019年4月16日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
美国化学会 (ACS) 北京代表处招聘
知社学术圈
11+阅读 · 2018年9月4日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
46+阅读 · 2021年10月4日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
24+阅读 · 2021年6月25日
Arxiv
12+阅读 · 2021年6月21日
Monocular Plan View Networks for Autonomous Driving
Arxiv
6+阅读 · 2019年5月16日
VIP会员
相关VIP内容
最新《生成式对抗网络》简介,25页ppt
专知会员服务
167+阅读 · 2020年6月28日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
相关论文
Top
微信扫码咨询专知VIP会员