报告主题: On The Role of Knowledge Graphs in Explainable AI

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

报告目录:

  • 人工智能中的解释
    • 动机
    • 定义
    • 评估(以及人类在可解释性人工智能中的角色)
    • 人类作用
    • 不同AI领域的解释性
  • 知识图谱在可解释性机器学习中的角色和作用
  • 利用知识图谱在机器学习中的可解释性人工智能工业应用
  • 结论
成为VIP会员查看完整内容
ISWC2019-FreddyLecue-Thales-OnTheRoleOfKnowledgeGraphsInExplainableAI.pdf
0
40

相关内容

知识图谱(Knowledge Graph),在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。 知识图谱是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。它能为学科研究提供切实的、有价值的参考。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

题目: Knowledge Graph Embeddings and Explainable AI

摘要: 知识图谱嵌入是一种广泛采用的知识表示方法,它将实体和关系嵌入到向量空间中。在这一章中,我们通过解释知识图谱嵌入是什么,如何生成它们以及如何对它们进行评估,向读者介绍知识图谱嵌入的概念。我们总结了这一领域的最新研究成果,对向量空间中表示知识的方法进行了介绍。在知识表示方面,我们考虑了可解释性问题,并讨论了通过知识图谱嵌入来解释预测的模型和方法。

成为VIP会员查看完整内容
0
61

题目: Foundations of Explainable Knowledge-Enabled Systems

摘要:

自从人工智能时代以来,可解释性就一直是重要的目标。 目前为止,已经有几种产生解释的方法被提出。 但是,这些方法中有许多都与当时的人工智能系统的能力紧密相关。 随着有时在关键环境中启用AI的系统的普及,有必要让最终用户和决策者对它们进行解释。 我们将介绍可解释的人工智能系统的历史概况,重点是知识支持的系统,涵盖专家系统,认知助手,语义应用和机器学习领域。 此外,借鉴过去的方法的优势,并找出使解释以用户和上下文为中心所需要的空白,我们提出了新的解释定义和可解释的知识支持系统。

成为VIP会员查看完整内容
0
20

【导读】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南.

可解释AI:基础、工业应用、实际挑战和经验教训

地址https://xaitutorial2020.github.io/

Tutorial 目标 本教程的目的是为以下问题提供答案:

  • 什么是可解释的AI (XAI)

    • 什么是可解释的AI(简称XAI) ?,人工智能社区(机器学习、逻辑学、约束编程、诊断)的各种流有什么解释?解释的度量标准是什么?
  • 我们为什么要关心?

    • 为什么可解释的AI很重要?甚至在某些应用中至关重要?阐述人工智能系统的动机是什么?
  • 哪里是关键?

    • 在大规模部署人工智能系统时,真正需要解释的实际应用是什么?
  • 它是如何工作的?

    • 在计算机视觉和自然语言处理中,最先进的解释技术是什么?对于哪种数据格式、用例、应用程序、行业,什么有效,什么没有效?
  • 我们学到了什么?

    • 部署现有XAI系统的经验教训和局限性是什么?在向人类解释的过程中?
  • 下一个是什么?

    • 未来的发展方向是什么?

概述

人工智能的未来在于让人们能够与机器合作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通、信任、清晰和理解。XAI(可解释的人工智能)旨在通过结合象征性人工智能和传统机器学习来解决这些挑战。多年来,所有不同的AI社区都在研究这个主题,它们有不同的定义、评估指标、动机和结果。

本教程简要介绍了XAI迄今为止的工作,并调查了AI社区在机器学习和符号化AI相关方法方面所取得的成果。我们将激发XAI在现实世界和大规模应用中的需求,同时展示最先进的技术和最佳实践。在本教程的第一部分,我们将介绍AI中解释的不同方面。然后,我们将本教程的重点放在两个特定的方法上: (i) XAI使用机器学习和 (ii) XAI使用基于图的知识表示和机器学习的组合。对于这两种方法,我们将详细介绍其方法、目前的技术状态以及下一步的限制和研究挑战。本教程的最后一部分概述了XAI的实际应用。

Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

目录与内容

第一部分: 介绍和动机

人工智能解释的入门介绍。这将包括从理论和应用的角度描述和激发对可解释的人工智能技术的需求。在这一部分中,我们还总结了先决条件,并介绍了本教程其余部分所采用的不同角度。

第二部分: 人工智能的解释(不仅仅是机器学习!)

人工智能各个领域(优化、知识表示和推理、机器学习、搜索和约束优化、规划、自然语言处理、机器人和视觉)的解释概述,使每个人对解释的各种定义保持一致。还将讨论可解释性的评估。本教程将涵盖大多数定义,但只深入以下领域: (i) 可解释的机器学习,(ii) 可解释的AI与知识图和机器学习。

第三部分: 可解释的机器学习(从机器学习的角度)

在本节中,我们将处理可解释的机器学习管道的广泛问题。我们描述了机器学习社区中解释的概念,接着我们描述了一些流行的技术,主要是事后解释能力、设计解释能力、基于实例的解释、基于原型的解释和解释的评估。本节的核心是分析不同类别的黑盒问题,从黑盒模型解释到黑盒结果解释。

第四部分: 可解释的机器学习(从知识图谱的角度)

在本教程的这一节中,我们将讨论将基于图形的知识库与机器学习方法相结合的解释力。

第五部分: XAI工具的应用、经验教训和研究挑战

我们将回顾一些XAI开源和商业工具在实际应用中的例子。我们关注一些用例:i)解释自动列车的障碍检测;ii)具有内置解释功能的可解释航班延误预测系统;(三)基于知识图谱的语义推理,对企业项目的风险层进行预测和解释的大范围合同管理系统;iv)识别、解释和预测500多个城市大型组织员工异常费用报销的费用系统;v)搜索推荐系统说明;vi)解释销售预测;(七)贷款决策说明;viii)解释欺诈检测。

成为VIP会员查看完整内容
0
143

主题: Storytelling from Structured Data and Knowledge Graphs : An NLG Perspective

摘要: 在本教程中,我们讨论将结构化数据(如表格形式的数据)和知识库(如知识图谱)翻译成自然语言论述的基础、方法和系统开发方面。本教程涵盖自然语言生成(NLG)的挑战和方法,主要关注(结构化)数据到文本的范式。我们的与会者将能够了解以下内容:(1)关于如何应用现代自然语言处理和自然语言处理技术来描述和总结非语言性质或具有某种结构的文本数据的基本观点和趋势,以及(2)一些有趣的开放式问题,这将为今后的研究做出重大贡献。我们将概述各种方法,从数据表示技术到适用于数据的领域解决方案,再到文本问题设置。从传统的基于规则/启发式驱动、现代的数据驱动和超现代的深层神经风格体系结构出发,讨论了各种解决方案,并简要讨论了评价和质量评估。 由于大规模的领域独立标记(并行)数据很少用于数据到文本的问题,本教程的很大一部分将致力于无监督、可伸缩和领域适应性的方法。

邀请嘉宾:

Abhijit Mishra,目前是印度班加罗尔IBM Research的一员,担任人工智能技术系的研究科学家。在加入IBM Research之前,他是孟买IIT计算机科学与工程系(CSE)的博士学者,在Pushpak Bhattacharyya教授的指导下工作。

Anirban Laha,他目前是亚伦·库尔维尔教授建议的蒙特勒大学(MILA)一年级博士生。他的兴趣在于机器学习/深度学习在自然语言处理中的应用。此前,他在IBM Research的自然语言生成(NLG)项目中工作了三年,并在顶级会议和期刊上发表过论文,如NeurIPS、ACL、NAACL-HLT和计算语言学。在IBM,他还为IBM项目辩论会做出了贡献,该会最近在全球范围内获得了广泛的新闻报道,因为一场现场机器与人类的辩论(更多新闻)。在加入IBM之前,他曾在微软必应广告公司(2013-2015)担任应用科学家,在亚马逊网站(2010-2011)担任SDE。

成为VIP会员查看完整内容
Storytelling from Structured Data and Knowledge Graphs An NLG Perspective.pdf
0
13

报告主题: Explanation In AI: From Machine Learning To Knowledge Representation And Reasoning And Beyond

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

成为VIP会员查看完整内容
Alberta-FreddyLecue-Thales-XAI-ExplanationInAI-FromMachineLearningToKnowledgeRepresentationAndReasoningAndBeyond.pdf
0
55

报告主题: Thales Embedded Explainable AI: Towards the Adoption of AI in Critical Systems

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

成为VIP会员查看完整内容
Lecue-Thales-EmbeddedXAI-AIAccelerator-Boston-20191017.pdf
0
13

报告主题: Explainable AI-The Story So Far

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

成为VIP会员查看完整内容
Aug29-Lecue-Thales-XAI-The-Story-So-Far-Final.pdf
0
20
小贴士
相关VIP内容
知识图谱在可解释人工智能中的作用,附81页ppt
专知会员服务
55+阅读 · 2019年11月11日
相关论文
Liang Chen,Jintang Li,Jiaying Peng,Tao Xie,Zengxu Cao,Kun Xu,Xiangnan He,Zibin Zheng
33+阅读 · 2020年3月10日
Guanglin Niu,Yongfei Zhang,Bo Li,Peng Cui,Si Liu,Jingyang Li,Xiaowei Zhang
7+阅读 · 2019年12月28日
Pasquale Minervini,Matko Bošnjak,Tim Rocktäschel,Sebastian Riedel,Edward Grefenstette
8+阅读 · 2019年12月17日
Incorporating Domain Knowledge into Medical NLI using Knowledge Graphs
Soumya Sharma,Bishal Santra,Abhik Jana,T. Y. S. S. Santosh,Niloy Ganguly,Pawan Goyal
3+阅读 · 2019年8月31日
Xiang Wang,Dingxian Wang,Canran Xu,Xiangnan He,Yixin Cao,Tat-Seng Chua
7+阅读 · 2018年11月12日
Improving Natural Language Inference Using External Knowledge in the Science Questions Domain
Xiaoyan Wang,Pavan Kapanipathi,Ryan Musa,Mo Yu,Kartik Talamadupula,Ibrahim Abdelaziz,Maria Chang,Achille Fokoue,Bassem Makni,Nicholas Mattei,Michael Witbrock
3+阅读 · 2018年9月15日
Ivana Balazevic,Carl Allen,Timothy M. Hospedales
5+阅读 · 2018年8月28日
The Vadalog System: Datalog-based Reasoning for Knowledge Graphs
Luigi Bellomarini,Georg Gottlob,Emanuel Sallinger
5+阅读 · 2018年7月23日
Yongfeng Zhang,Xu Chen
10+阅读 · 2018年5月13日
Quanshi Zhang,Ying Nian Wu,Song-Chun Zhu
14+阅读 · 2018年2月14日
Top