AAAI是人工智能领域的顶级国际会议,每年吸引世界各国数千名学者共同探讨人工智能发展前沿。 国际人工智能协会，前身为美国人工智能协会，目前是一个非盈利的学术研究组织，致力于推动针对智能行为本质的科学研究。

### VIP内容

【导读】人工智能领域的国际顶级会议 AAAI 2019 即将于 1 月 27 日至 2 月 1 日在美国夏威夷举行。AAAI2019第一天的关于可解释人工智能的Tutorial引起了人们极大的关注，这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法，是构建可解释模型的重要指南.

AI系统--我如何信任它们？

XAI是人工智能的一个新兴分支，用于解释人工智能所做出的每一个决策背后的逻辑。下图是对一个完整AI决策流程的简单描述。

AAAI 2019 tutorial: 可解释AI –从理论到动机，应用和局限性

1. 什么是可解释的AI (XAI)?

什么是可解释的AI(简称XAI)，即人工智能社区的各种流程 (Machine Learning, Logics, Constraint Programming, Diagnostics)的解释是什么?解释的度量标准是什么?

2. 我们为什么要在意?

为什么可解释的人工智能很重要?甚至在某些应用中至关重要?解释人工智能系统的动机是什么?

3. 它在哪里至关重要？

在现实世界中，哪些应用程序需要解释如何大规模部署AI系统?

4. 它是如何工作的?

在计算机视觉和自然语言处理中，最前沿的解释技术是什么?对于哪种数据格式、用例、应用程序、行业，哪些方法效果好，哪些方法效果不好?

5. 我们学到了什么?

部署现有可解释AI系统的经验教训和局限性是什么?在向人类解释的过程中学到了什么?

6. 接下来的发展是什么?

可解释AI未来的发展方向是什么?

【介绍】

【可解释AI】

【可解释机器学习】

【用知识图谱和ML解释AI】

【应用】

Tutorial的讲者

PPT下载链接：https://pan.baidu.com/s/1dyjGJyhqS3-E77DysIkgHQ 提取码：aq79

### 最新论文

We study the problem of efficiently estimating the effect of an intervention on a single variable (atomic interventions) using observational samples in a causal Bayesian network. Our goal is to give algorithms that are efficient in both time and sample complexity in a non-parametric setting. Tian and Pearl (AAAI `02) have exactly characterized the class of causal graphs for which causal effects of atomic interventions can be identified from observational data. We make their result quantitative. Suppose P is a causal model on a set $\vec{V}$ of n observable variables with respect to a given causal graph G with observable distribution $P$. Let $P_x$ denote the interventional distribution over the observables with respect to an intervention of a designated variable X with x. Assuming that $G$ has bounded in-degree, bounded c-components ($k$), and that the observational distribution is identifiable and satisfies certain strong positivity condition, we give an algorithm that takes $m=\tilde{O}(n\epsilon^{-2})$ samples from $P$ and $O(mn)$ time, and outputs with high probability a description of a distribution $\hat{P}$ such that $d_{\mathrm{TV}}(P_x, \hat{P}) \leq \epsilon$, and: 1. [Evaluation] the description can return in $O(n)$ time the probability $\hat{P}(\vec{v})$ for any assignment $\vec{v}$ to $\vec{V}$ 2. [Generation] the description can return an iid sample from $\hat{P}$ in $O(n)$ time. We also show lower bounds for the sample complexity showing that our sample complexity has an optimal dependence on the parameters $n$ and $\epsilon$, as well as if $k=1$ on the strong positivity parameter.

Top