【简介】近些年来,可解释的人工智能受到了越来越多的关注。随着人工智能模型变得越来越复杂和不透明,可解释性变得越来越重要。最近,研究人员一直在以用户为中心研究和处理可解释性,寻找可信任、可理解、明确的来源和上下文感知的可解释性。在这篇论文中,我们通过调研人工智能和相关领域中有关可解释性的文献,并利用过去的相关研究生成了一系列的可解释类型。我们定义每种类型,并提供一个示例问题,来阐述对这种解释方式的需求。我们相信,这一系列的解释类型将有助于未来的系统设计人员获得可靠的需求和确定各种需求的优先级,并进一步帮助生成能够更好地符合用户和情景需求的解释。

介绍

人工智能(AI)领域已经从单纯的基于符号和逻辑的专家系统发展到使用统计和逻辑推理技术的混合系统。可解释性人工智能的进展与人工智能方法的发展紧密相关,例如我们在早期的论文“可解释的知识支持系统的基础”中所涉及的类别,涵盖了专家系统、语义web方法、认知助手和机器学习方法。我们注意到这些方法主要处理可解释性的特定方面。例如,由专家系统产生的解释主要用于提供推理所需的痕迹、来源和理由。这些由认知助理提供的模型能够调整它们的形式以适应用户的需求,并且在机器学习和专家系统领域,解释为模型的功能提供了一种“直觉”。

成为VIP会员查看完整内容
98

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
深度学习可解释性研究进展
专知会员服务
93+阅读 · 2020年6月26日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
【综述】金融领域中的深度学习,附52页论文下载
专知会员服务
161+阅读 · 2020年2月27日
2019->2020必看的十篇「深度学习领域综述」论文
专知会员服务
269+阅读 · 2020年1月1日
可解释推荐:综述与新视角
专知会员服务
108+阅读 · 2019年10月13日
【文献综述】图像分割综述,224篇参考文献,附58页PDF
专知会员服务
115+阅读 · 2019年6月16日
2019->2020必看的十篇「深度学习领域综述」论文
极市平台
23+阅读 · 2020年1月2日
【综述】生成式对抗网络GAN最新进展综述
专知
57+阅读 · 2019年6月5日
自然语言处理常识推理综述论文,60页pdf
专知
69+阅读 · 2019年4月4日
连载 | 知识图谱发展报告 2018 -- 前言
开放知识图谱
18+阅读 · 2018年10月7日
2018计算机图形学研究报告(附PDF下载)
数据派THU
7+阅读 · 2018年8月16日
综述 | 知识图谱发展概述
PaperWeekly
75+阅读 · 2017年11月3日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
A Comprehensive Survey on Transfer Learning
Arxiv
117+阅读 · 2019年11月7日
Arxiv
135+阅读 · 2018年10月8日
VIP会员
相关VIP内容
深度学习可解释性研究进展
专知会员服务
93+阅读 · 2020年6月26日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
【综述】金融领域中的深度学习,附52页论文下载
专知会员服务
161+阅读 · 2020年2月27日
2019->2020必看的十篇「深度学习领域综述」论文
专知会员服务
269+阅读 · 2020年1月1日
可解释推荐:综述与新视角
专知会员服务
108+阅读 · 2019年10月13日
【文献综述】图像分割综述,224篇参考文献,附58页PDF
专知会员服务
115+阅读 · 2019年6月16日
微信扫码咨询专知VIP会员