人工智能的未来在于使人类能够与机器合作解决复杂问题。像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。XAI(可解释人工智能)旨在通过结合符号人工智能和传统机器学习的最佳效果来应对这些挑战。这一主题已经被各种不同的AI社区研究了多年,它们有着不同的定义、评估指标、动机和结果。

本教程简要介绍了XAI迄今为止的工作,并以机器学习和符号AI相关方法为重点,调查了人工智能社区所完成的工作。我们将在现实世界和大规模应用中激发XAI的需求,同时提供最先进的技术和最佳的XAI编码实践。在本教程的第一部分,我们将介绍AI的不同解释方面。然后,我们将重点介绍两种具体的方法:(i) XAI使用机器学习和(ii) XAI使用基于图的知识表示和机器学习的结合。对于这两种情况,我们都将深入研究方法的细节、技术现状和下一步的研究挑战。本教程的最后一部分概述了XAI的实际应用程序以及最佳的XAI编码实践。

成为VIP会员查看完整内容
42

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
34+阅读 · 2020年9月3日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
14+阅读 · 2020年9月1日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员