知识图谱如何用于可解释人工智能中?KGC2019这份教程为你讲解(附34页ppt)

2019 年 5 月 12 日 专知
知识图谱如何用于可解释人工智能中?KGC2019这份教程为你讲解(附34页ppt)

【导读】 知识图谱KGC是一个世界级会议,将有经验的实践者、技术领导者、前沿研究人员、学者和供应商聚集在一起,就知识图的主题进行为期两天的演讲、讨论和网络交流。KGC2019在5月7号到9号举行。来自加拿大CortAIx 首席人工智能科学家Freddy Lecue做了关于《知识图谱在机器学习系统中应用》的报告,特别对可解释人工智能以及知识图谱在可解释机器学习中的作用进行了重点讲述,是非常好的学习资料。

请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“KGXAI” 就可以获取《知识图谱在可解释机器学习中应用》的下载链接~ 


Freddy Lecue

Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他曾担任研究科学家,2011年至2016年在IBM research担任大规模推理系统首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。



知识图谱在可解释人工智能的应用

报告摘要

尽管围绕基于机器学习的人工智能系统出现了大量创新,但各大行业仍对其大规模影响感到困惑。这在关键系统的上下文中尤其有效,因为大规模采用需要健壮性、信任,特别是解释。纯基于机器学习的方法已经出现,但未能解决可解释性的核心原则,即如何用人类可理解的方式来解释一个决定。为了解决机器学习中的可解释性问题,知识图表现出了适合目的的特征。我们将回顾知识图如何适应人工智能系统的进展解释,并最终大规模采用人工智能。


可信赖人工智能包含要素



可解释人工智能涵义


可解释机器学习模型包括线性回归、逻辑回归、决策树、GLMs、GAMs、KNNs等


深度神经网络模型

计算机视觉可解释实例


机器学习中的的知识图谱嵌入


知识图谱决策树


知识图谱用于神经网络


结论

  • 可解释的人工智能是工业上采用人工智能的强烈要求

  • 有很多方法可以解释机器学习,但没有附加语义

  • 需要在联合学习和推理系统方面做更多的工作

  • (总的来说):很多有趣的/互补的方法





-END-

专 · 知

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎登录www.zhuanzhi.ai,注册登录专知,获取更多AI知识资料!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询技术商务合作~

专知《深度学习:算法到实战》课程全部完成!540+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
30

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

【导读】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南.

可解释AI:基础、工业应用、实际挑战和经验教训

地址https://xaitutorial2020.github.io/

Tutorial 目标 本教程的目的是为以下问题提供答案:

  • 什么是可解释的AI (XAI)

    • 什么是可解释的AI(简称XAI) ?,人工智能社区(机器学习、逻辑学、约束编程、诊断)的各种流有什么解释?解释的度量标准是什么?
  • 我们为什么要关心?

    • 为什么可解释的AI很重要?甚至在某些应用中至关重要?阐述人工智能系统的动机是什么?
  • 哪里是关键?

    • 在大规模部署人工智能系统时,真正需要解释的实际应用是什么?
  • 它是如何工作的?

    • 在计算机视觉和自然语言处理中,最先进的解释技术是什么?对于哪种数据格式、用例、应用程序、行业,什么有效,什么没有效?
  • 我们学到了什么?

    • 部署现有XAI系统的经验教训和局限性是什么?在向人类解释的过程中?
  • 下一个是什么?

    • 未来的发展方向是什么?

概述

人工智能的未来在于让人们能够与机器合作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通、信任、清晰和理解。XAI(可解释的人工智能)旨在通过结合象征性人工智能和传统机器学习来解决这些挑战。多年来,所有不同的AI社区都在研究这个主题,它们有不同的定义、评估指标、动机和结果。

本教程简要介绍了XAI迄今为止的工作,并调查了AI社区在机器学习和符号化AI相关方法方面所取得的成果。我们将激发XAI在现实世界和大规模应用中的需求,同时展示最先进的技术和最佳实践。在本教程的第一部分,我们将介绍AI中解释的不同方面。然后,我们将本教程的重点放在两个特定的方法上: (i) XAI使用机器学习和 (ii) XAI使用基于图的知识表示和机器学习的组合。对于这两种方法,我们将详细介绍其方法、目前的技术状态以及下一步的限制和研究挑战。本教程的最后一部分概述了XAI的实际应用。

Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

目录与内容

第一部分: 介绍和动机

人工智能解释的入门介绍。这将包括从理论和应用的角度描述和激发对可解释的人工智能技术的需求。在这一部分中,我们还总结了先决条件,并介绍了本教程其余部分所采用的不同角度。

第二部分: 人工智能的解释(不仅仅是机器学习!)

人工智能各个领域(优化、知识表示和推理、机器学习、搜索和约束优化、规划、自然语言处理、机器人和视觉)的解释概述,使每个人对解释的各种定义保持一致。还将讨论可解释性的评估。本教程将涵盖大多数定义,但只深入以下领域: (i) 可解释的机器学习,(ii) 可解释的AI与知识图和机器学习。

第三部分: 可解释的机器学习(从机器学习的角度)

在本节中,我们将处理可解释的机器学习管道的广泛问题。我们描述了机器学习社区中解释的概念,接着我们描述了一些流行的技术,主要是事后解释能力、设计解释能力、基于实例的解释、基于原型的解释和解释的评估。本节的核心是分析不同类别的黑盒问题,从黑盒模型解释到黑盒结果解释。

第四部分: 可解释的机器学习(从知识图谱的角度)

在本教程的这一节中,我们将讨论将基于图形的知识库与机器学习方法相结合的解释力。

第五部分: XAI工具的应用、经验教训和研究挑战

我们将回顾一些XAI开源和商业工具在实际应用中的例子。我们关注一些用例:i)解释自动列车的障碍检测;ii)具有内置解释功能的可解释航班延误预测系统;(三)基于知识图谱的语义推理,对企业项目的风险层进行预测和解释的大范围合同管理系统;iv)识别、解释和预测500多个城市大型组织员工异常费用报销的费用系统;v)搜索推荐系统说明;vi)解释销售预测;(七)贷款决策说明;viii)解释欺诈检测。

成为VIP会员查看完整内容
0
143

【导读】人工智能领域的国际顶级会议 AAAI 2019 即将于 1 月 27 日至 2 月 1 日在美国夏威夷举行。AAAI2019第一天的关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,是构建可解释模型的重要指南.

AI系统--我如何信任它们?

在现实生活中,每一个决策,无论是由机器还是低级员工又或是首席执行官做出的,为了达到提高整体的业务水平的目的,都要通过定期的审查,来解释他们的决定。这就产生了人工智能的新兴分支,称为“可解释的人工智能”(XAI)。

什么是可解释的AI(XAI)?

XAI是人工智能的一个新兴分支,用于解释人工智能所做出的每一个决策背后的逻辑。下图是对一个完整AI决策流程的简单描述。

AAAI 2019 tutorial: 可解释AI –从理论到动机,应用和局限性

一、本教程希望为以下问题提供答案:

  1. 什么是可解释的AI (XAI)?

    什么是可解释的AI(简称XAI),即人工智能社区的各种流程 (Machine Learning, Logics, Constraint Programming, Diagnostics)的解释是什么?解释的度量标准是什么?
    
  2. 我们为什么要在意?

    为什么可解释的人工智能很重要?甚至在某些应用中至关重要?解释人工智能系统的动机是什么?

  3. 它在哪里至关重要?

    在现实世界中,哪些应用程序需要解释如何大规模部署AI系统?
    
  4. 它是如何工作的?

    在计算机视觉和自然语言处理中,最前沿的解释技术是什么?对于哪种数据格式、用例、应用程序、行业,哪些方法效果好,哪些方法效果不好?

  5. 我们学到了什么?

    部署现有可解释AI系统的经验教训和局限性是什么?在向人类解释的过程中学到了什么?
    
  6. 接下来的发展是什么?

    可解释AI未来的发展方向是什么?

二、概述

人工智能的未来在于使人们能够与机器协作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通,信任,清晰和理解。 可解释AI(XAI,eXplainable AI)旨在通过将符号人工智能与传统机器学习的最佳结合来应对这些挑战。多年来,人工智能的各个不同社区都在研究这一主题,它们有着不同的定义、评估指标、动机和结果。本教程简要介绍了可解释AI到目前为止的工作,并调研了人工智能社区在机器学习和符号人工智能相关方法方面所完成的工作。

在本教程的第一部分中,我们将介绍AI解释的不同方面。然后我们将本教程的重点放在两个具体的方法上:(i)使用机器学习的可解释AI和(ii)使用基于图(graph)的知识表示和机器学习结合的可解释AI。对于这两者,我们深入探讨了该方法的具体细节,现有技术以及后续步骤的研究挑战。本教程的最后一部分概述了可解释AI的实际应用。

三、大纲

【介绍】

人工智能解释的广泛介绍。这将包括从理论和应用的角度描述和激发对可解释AI技术的需求。在这一部分中,我们还总结了先决条件,并介绍了本教程其余部分所采用的不同视角。

【可解释AI】

人工智能的各个领域(优化,知识表示和推理,机器学习,搜索和约束优化,规划,自然语言处理,机器人和视觉)的解释概述,使每个人对解释的不同定义保持一致。本教程将涵盖大多数定义,但只会深入以下领域:(i)可解释的机器学习,(ii)具有知识图和ML的可解释AI。

【可解释机器学习】

在本节中,我们将解决可解释的机器学习pipeline的广泛问题。我们描述了机器学习社区中可解释性的概念,并通过描述一些流行的可解释性模型来继续。本节的核心是对不同类别的黑箱问题进行分析,从黑箱模型讲解到黑箱结果讲解,最后是黑箱检查。

【用知识图谱和ML解释AI】

在本教程的这一部分中,我们将从两个不同的角度阐述基于图的知识库的解释力:

用语义网和逻辑解释AI

我们展示了支持语义web的模式丰富的、基于图的知识表示范式是如何实现有效解释的。本节还将重点介绍从大型异构知识库中表示和推断有效解释的逻辑和推理方法。

基于知识图谱的机器学习

在本节中,我们将重点讨论知识图嵌入模型,即将知识图中的概念编码为连续低维向量的神经架构。这些模型已经被证明对许多机器学习任务有效,特别是知识库的完成。我们解释了这些模型的基本原理和架构,并从它们的不可预测性以及如何增强第三方模型的可解释性的角度对它们进行了考察。

【应用】

我们展示了应用解释技术的真实示例。我们关注一些使用案例:i)具有内置解释功能的可解释的航班延误预测系统; ii)基于知识图的语义推理,预测和解释企业项目风险层次的大范围合同管理系统;iii) 500多个城市的大型组织员工异常报销的识别、解释和预测的费用体系。

Tutorial的讲者

PPT下载链接:https://pan.baidu.com/s/1dyjGJyhqS3-E77DysIkgHQ 提取码:aq79

成为VIP会员查看完整内容
0
58

报告主题: Explanation In AI: From Machine Learning To Knowledge Representation And Reasoning And Beyond

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

成为VIP会员查看完整内容
Alberta-FreddyLecue-Thales-XAI-ExplanationInAI-FromMachineLearningToKnowledgeRepresentationAndReasoningAndBeyond.pdf
0
55

报告主题: Thales Embedded Explainable AI: Towards the Adoption of AI in Critical Systems

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

成为VIP会员查看完整内容
Lecue-Thales-EmbeddedXAI-AIAccelerator-Boston-20191017.pdf
0
13

报告主题: Explainable AI-The Story So Far

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

成为VIP会员查看完整内容
Aug29-Lecue-Thales-XAI-The-Story-So-Far-Final.pdf
0
20

报告主题: On The Role of Knowledge Graphs in Explainable AI

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

报告目录:

  • 人工智能中的解释
    • 动机
    • 定义
    • 评估(以及人类在可解释性人工智能中的角色)
    • 人类作用
    • 不同AI领域的解释性
  • 知识图谱在可解释性机器学习中的角色和作用
  • 利用知识图谱在机器学习中的可解释性人工智能工业应用
  • 结论
成为VIP会员查看完整内容
ISWC2019-FreddyLecue-Thales-OnTheRoleOfKnowledgeGraphsInExplainableAI.pdf
0
40
小贴士
相关VIP内容
专知会员服务
104+阅读 · 2020年5月22日
知识图谱在可解释人工智能中的作用,附81页ppt
专知会员服务
55+阅读 · 2019年11月11日
相关论文
Invariance-Preserving Localized Activation Functions for Graph Neural Networks
Luana Ruiz,Fernando Gama,Antonio G. Marques,Alejandro Ribeiro
4+阅读 · 2019年11月5日
Explainable Recommendation: A Survey and New Perspectives
Yongfeng Zhang,Xu Chen
43+阅读 · 2019年8月15日
Bryan Wilder,Eric Ewing,Bistra Dilkina,Milind Tambe
4+阅读 · 2019年5月31日
Chengsheng Mao,Liang Yao,Yuan Luo
6+阅读 · 2019年3月31日
Eva Hasler,Adrià De Gispert,Gonzalo Iglesias,Bill Byrne
5+阅读 · 2018年5月9日
Liwei Cai,William Yang Wang
6+阅读 · 2018年4月16日
Ray Jiang,Sven Gowal,Timothy A. Mann,Danilo J. Rezende
4+阅读 · 2018年4月9日
Dong Huk Park,Lisa Anne Hendricks,Zeynep Akata,Anna Rohrbach,Bernt Schiele,Trevor Darrell,Marcus Rohrbach
7+阅读 · 2018年2月15日
Quanshi Zhang,Ying Nian Wu,Song-Chun Zhu
14+阅读 · 2018年2月14日
Matthew Ricci,Junkyung Kim,Thomas Serre
5+阅读 · 2018年2月12日
Top