报告主题: On The Role of Knowledge Graphs in Explainable AI
嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。
报告目录:
题目: Knowledge Graph Embeddings and Explainable AI
摘要: 知识图谱嵌入是一种广泛采用的知识表示方法,它将实体和关系嵌入到向量空间中。在这一章中,我们通过解释知识图谱嵌入是什么,如何生成它们以及如何对它们进行评估,向读者介绍知识图谱嵌入的概念。我们总结了这一领域的最新研究成果,对向量空间中表示知识的方法进行了介绍。在知识表示方面,我们考虑了可解释性问题,并讨论了通过知识图谱嵌入来解释预测的模型和方法。
题目: Foundations of Explainable Knowledge-Enabled Systems
摘要:
自从人工智能时代以来,可解释性就一直是重要的目标。 目前为止,已经有几种产生解释的方法被提出。 但是,这些方法中有许多都与当时的人工智能系统的能力紧密相关。 随着有时在关键环境中启用AI的系统的普及,有必要让最终用户和决策者对它们进行解释。 我们将介绍可解释的人工智能系统的历史概况,重点是知识支持的系统,涵盖专家系统,认知助手,语义应用和机器学习领域。 此外,借鉴过去的方法的优势,并找出使解释以用户和上下文为中心所需要的空白,我们提出了新的解释定义和可解释的知识支持系统。
【导读】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南.
可解释AI:基础、工业应用、实际挑战和经验教训
地址: https://xaitutorial2020.github.io/
Tutorial 目标 本教程的目的是为以下问题提供答案:
什么是可解释的AI (XAI)
我们为什么要关心?
哪里是关键?
它是如何工作的?
我们学到了什么?
下一个是什么?
概述
人工智能的未来在于让人们能够与机器合作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通、信任、清晰和理解。XAI(可解释的人工智能)旨在通过结合象征性人工智能和传统机器学习来解决这些挑战。多年来,所有不同的AI社区都在研究这个主题,它们有不同的定义、评估指标、动机和结果。
本教程简要介绍了XAI迄今为止的工作,并调查了AI社区在机器学习和符号化AI相关方法方面所取得的成果。我们将激发XAI在现实世界和大规模应用中的需求,同时展示最先进的技术和最佳实践。在本教程的第一部分,我们将介绍AI中解释的不同方面。然后,我们将本教程的重点放在两个特定的方法上: (i) XAI使用机器学习和 (ii) XAI使用基于图的知识表示和机器学习的组合。对于这两种方法,我们将详细介绍其方法、目前的技术状态以及下一步的限制和研究挑战。本教程的最后一部分概述了XAI的实际应用。
Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。
目录与内容
第一部分: 介绍和动机
人工智能解释的入门介绍。这将包括从理论和应用的角度描述和激发对可解释的人工智能技术的需求。在这一部分中,我们还总结了先决条件,并介绍了本教程其余部分所采用的不同角度。
第二部分: 人工智能的解释(不仅仅是机器学习!)
人工智能各个领域(优化、知识表示和推理、机器学习、搜索和约束优化、规划、自然语言处理、机器人和视觉)的解释概述,使每个人对解释的各种定义保持一致。还将讨论可解释性的评估。本教程将涵盖大多数定义,但只深入以下领域: (i) 可解释的机器学习,(ii) 可解释的AI与知识图和机器学习。
第三部分: 可解释的机器学习(从机器学习的角度)
在本节中,我们将处理可解释的机器学习管道的广泛问题。我们描述了机器学习社区中解释的概念,接着我们描述了一些流行的技术,主要是事后解释能力、设计解释能力、基于实例的解释、基于原型的解释和解释的评估。本节的核心是分析不同类别的黑盒问题,从黑盒模型解释到黑盒结果解释。
第四部分: 可解释的机器学习(从知识图谱的角度)
在本教程的这一节中,我们将讨论将基于图形的知识库与机器学习方法相结合的解释力。
第五部分: XAI工具的应用、经验教训和研究挑战
我们将回顾一些XAI开源和商业工具在实际应用中的例子。我们关注一些用例:i)解释自动列车的障碍检测;ii)具有内置解释功能的可解释航班延误预测系统;(三)基于知识图谱的语义推理,对企业项目的风险层进行预测和解释的大范围合同管理系统;iv)识别、解释和预测500多个城市大型组织员工异常费用报销的费用系统;v)搜索推荐系统说明;vi)解释销售预测;(七)贷款决策说明;viii)解释欺诈检测。
主题: Storytelling from Structured Data and Knowledge Graphs : An NLG Perspective
摘要: 在本教程中,我们讨论将结构化数据(如表格形式的数据)和知识库(如知识图谱)翻译成自然语言论述的基础、方法和系统开发方面。本教程涵盖自然语言生成(NLG)的挑战和方法,主要关注(结构化)数据到文本的范式。我们的与会者将能够了解以下内容:(1)关于如何应用现代自然语言处理和自然语言处理技术来描述和总结非语言性质或具有某种结构的文本数据的基本观点和趋势,以及(2)一些有趣的开放式问题,这将为今后的研究做出重大贡献。我们将概述各种方法,从数据表示技术到适用于数据的领域解决方案,再到文本问题设置。从传统的基于规则/启发式驱动、现代的数据驱动和超现代的深层神经风格体系结构出发,讨论了各种解决方案,并简要讨论了评价和质量评估。 由于大规模的领域独立标记(并行)数据很少用于数据到文本的问题,本教程的很大一部分将致力于无监督、可伸缩和领域适应性的方法。
邀请嘉宾:
Abhijit Mishra,目前是印度班加罗尔IBM Research的一员,担任人工智能技术系的研究科学家。在加入IBM Research之前,他是孟买IIT计算机科学与工程系(CSE)的博士学者,在Pushpak Bhattacharyya教授的指导下工作。
Anirban Laha,他目前是亚伦·库尔维尔教授建议的蒙特勒大学(MILA)一年级博士生。他的兴趣在于机器学习/深度学习在自然语言处理中的应用。此前,他在IBM Research的自然语言生成(NLG)项目中工作了三年,并在顶级会议和期刊上发表过论文,如NeurIPS、ACL、NAACL-HLT和计算语言学。在IBM,他还为IBM项目辩论会做出了贡献,该会最近在全球范围内获得了广泛的新闻报道,因为一场现场机器与人类的辩论(更多新闻)。在加入IBM之前,他曾在微软必应广告公司(2013-2015)担任应用科学家,在亚马逊网站(2010-2011)担任SDE。
报告主题: Explanation In AI: From Machine Learning To Knowledge Representation And Reasoning And Beyond
嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。
报告主题: Thales Embedded Explainable AI: Towards the Adoption of AI in Critical Systems
嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。
报告主题: Explainable AI-The Story So Far
嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。