论文题目: Definitions, methods, and applications in interpretable machine learning

论文摘要:

机器学习模型在学习复杂模式方面取得了巨大的成功,这些模式使机器能够对未观察到的数据做出预测。除了使用模型进行预测外,解释模型所学内容的能力正受到越来越多的关注。然而,这种关注的增加导致了对可解释性概念的相当大的混淆。特别是,目前还不清楚所提出的各种解释方法是如何相互联系的,以及可以用什么共同的概念来评价这些方法。我们的目标是通过定义机器学习环境中的可解释性,并引入预测、描述和相关(PDR)框架来讨论解释性,从而解决这些问题。PDR框架为评估提供了3个主要的需求:预测准确性、描述准确性和相关性,以及相对于人类受众判断的相关性。此外,为了帮助管理大量的解释方法,我们将现有的技术分为基于模型的和特定的类别,包括稀疏性、模块化性和可模拟性。为了证明从业者如何使用PDR框架来评估和理解解释,我们提供了大量的实际例子。这些例子突出了人类观众在讨论可解释性时常常被低估的作用。最后,基于我们的框架工作,我们讨论了现有方法的局限性和未来工作的方向。我们希望这项工作将提供一个共同的词汇,使从业者和研究人员更容易地讨论和选择全面的解释方法。

论文作者:

W. James Murdoch是加州大学伯克利分校研究生,研究兴趣为可解释性,机器学习,自然语言处理和因果推理。

Chandan Singh在伯克利攻读博士学位,研究计算系统,研究范围是机器学习、可解释性、计算神经科学。

成为VIP会员查看完整内容
0
27

相关内容

W. James Murdoch是加州大学伯克利分校研究生,研究兴趣为可解释性,机器学习,自然语言处理和因果推理。

【导读】可解释性是当下机器学习研究特点之一。最近,来自复旦大学的研究生朱明超,将业界《Interpretable Machine Learning》(可解释机器学习)翻译成了中文。

可解释机器学习:打开黑盒之谜(238页书籍下载)

这本书最初是由德国慕尼黑大学博士Christoph Molnar耗时两年完成的,长达250页,是仅有的一本系统介绍可解释性机器学习的书籍。

这本书最初是由Christoph Molnar耗时两年完成的《Interpretable Machine Learning》,长达250页,在公开至今该书得到密切关注,这是在可解释性领域可以找到的仅有的一本书。

这本书由复旦大学朱明超完成它的翻译和校正工作,目前已经开源放到GitHub网页上,《可解释的机器学习》。作者Christoph Molnar 在其后也发到了推特上。

“可解释”是这本书的核心论题。作者Molnar认为,可解释性在机器学习甚至日常生活中都是相当重要的一个问题。建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读本书。

Molnar表示,虽然数据集与黑盒机器学习解决了很多问题,但这不是最好的使用姿势,现在模型本身代替了数据成为了信息的来源,但可解释性可以提取模型捕捉到的额外信息。当我们的日常生活中全都是机器和算法时,也需要可解释性来增加社会的接受度。毕竟要是连科学家都研究不透“黑盒”,怎样让普通人完全信任模型做出的决策呢?

这本书的重点是机器学习的可解释性。你将学习简单的、可解释的模型,如线性回归、决策树和决策规则等。后面几章重点介绍了解释黑盒模型的模型无关的一般方法,如特征重要性和累积局部效应,以及用 Shapley 值和 LIME 解释单个实例预测。

对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释它们的输出?本书将使你能够选择并正确应用最适合你的机器学习项目的解释方法。你阅读本书后,内化知识还使你能够更好地理解和评估arxiv.org上发表的有关可解释性的新论文。

这本书中用许多平实的语言,结合各类现实生活中的例子介绍了相关的概念,还配了参考链接可以进一步学习了解。

《可解释的机器学习》该书总共包含 7 章内容。章节目录如下:

  • 第一章:前言
  • 第二章:可解释性
  • 第三章:数据集
  • 第四章:可解释的模型
  • 第五章:模型无关方法
  • 第六章:基于样本的解释
  • 第七章:水晶球

传送门 GitHub:https://github.com/MingchaoZhu/InterpretableMLBook

成为VIP会员查看完整内容
0
176

简介: 机器学习可解释性的新方法以惊人的速度发布。与所有这些保持最新将是疯狂的,根本不可能。这就是为什么您不会在本书中找到最新颖,最有光泽的方法,而是找到机器学习可解释性的基本概念的原因。这些基础知识将为您做好使机器学​​习模型易于理解的准备。

可解释的是使用可解释的模型,例如线性模型或决策树。另一个选择是与模型无关的解释工具,该工具可以应用于任何监督的机器学习模型。与模型不可知的章节涵盖了诸如部分依赖图和置换特征重要性之类的方法。与模型无关的方法通过更改机器学习的输入来起作用建模并测量输出中的变化。

本书将教您如何使(监督的)机器学习模型可解释。这些章节包含一些数学公式,但是即使没有数学知识,您也应该能够理解这些方法背后的思想。本书不适用于尝试从头开始学习机器学习的人。如果您不熟悉机器学习,则有大量书籍和其他资源可用于学习基础知识。我推荐Hastie,Tibshirani和Friedman(2009)撰写的《统计学习的要素》一书和Andrewra Ng在Coursera³上开设的“机器学习”在线课程,着手进行机器学习。这本书和课程都是免费的!在本书的最后,对可解释机器学习的未来前景持乐观态度。

目录:

  • 前言
  • 第一章 引言
  • 第二章 解释性
  • 第三章 数据集
  • 第四章 解释模型
  • 第五章 模型不可知论方法
  • 第六章 基于实例的解释
  • 第七章 神经网络解释
  • 第八章 水晶球
  • 第九章 贡献
  • 第十章 引用本书

成为VIP会员查看完整内容
Interpretable-machine-learning.pdf
0
70

题目: Graph Summarization Methods and Applications: A Survey

摘要:

虽然计算资源的进步使处理大量数据成为可能,但人类识别这些数据模式的能力并没有相应提高。因此,压缩和简化数据的高效计算方法对于提取可操作的见解变得至关重要。特别是,虽然对数据摘要技术进行了广泛的研究,但直到最近才开始流行对相互关联的数据或图进行汇总。这项调查是一个结构化的,全面的概述了最先进的方法,以总结图形数据。我们首先讨论了图形摘要背后的动机和挑战。然后,我们根据作为输入的图形类型对摘要方法进行分类,并根据核心方法进一步组织每个类别。最后,我们讨论了总结在真实世界图上的应用,并通过描述该领域的一些开放问题进行了总结。

作者简介:

Yike Liu是密西根大学物理系五年级的博士生,也是计算机科学与工程系的一名硕士研究生。我是叶杰平教授的顾问。主要研究方向是深度学习和强化学习,尤其是在交通数据上的应用。在此之前,从事过基于图形的机器学习和数据挖掘,特别是图形总结和图形聚类,在这些工作中,开发了图形挖掘算法,帮助更好地理解底层的图形组织并理解它。

Tara Safavi是密西根大学博士研究生,研究重点是知识表示及其在以人为中心的任务中的使用、评估和解释,还对更广泛的AI+社会问题感兴趣,比如隐私、偏见和环境可持续性。研究目前得到了美国国家科学基金会(NSF)研究生奖学金和谷歌女性科技创造者奖学金的支持。

成为VIP会员查看完整内容
0
19

题目: Causal Inference and Stable Learning

简介:

在一个常见的机器学习问题中,使用一个根据训练数据集估计的模型,根据观察到的特征来预测未来的结果值。当测试数据和训练数据来自相同的分布时,许多学习算法被提出并证明是成功的。然而,对于给定的训练数据分布,性能最好的模型通常利用特征之间微妙的统计关系,这使得它们在应用于测试数据时更容易出现预测错误,因为测试数据的分布与训练数据的分布不同。对于学术研究和实际应用来说,如何建立稳定、可靠的学习模型是至关重要的。因果推理是一种强大的统计建模工具,用于解释和稳定的学习。因果推理是指基于某一效应发生的条件,对某一因果关系做出结论的过程。在本教程中,我们将重点讨论因果推理和稳定学习,旨在从观察数据中探索因果知识,以提高机器学习算法的可解释性和稳定性。首先,我们将介绍因果推理,并介绍一些最近的数据驱动的方法来估计因果效应的观测数据,特别是在高维设置。摘要为了弥补因果推理与机器学习在稳定学习上的差距,我们首先给出了学习算法的稳定性和鲁棒性的定义,然后介绍了一些最近出现的稳定学习算法,以提高预测的稳定性和可解释性。最后,我们将讨论稳定学习的应用和未来方向,并为稳定学习提供基准。

邀请嘉宾:

张潼,香港科技大学计算机科学与数学教授。此前,他是罗格斯大学(Rutgers university)教授,曾在IBM、雅虎(Yahoo)、百度和腾讯(Tencent)工作。张潼的研究兴趣包括机器学习算法和理论、大数据统计方法及其应用。他是ASA和IMS的研究员,曾在主要机器学习期刊的编委会和顶级机器学习会议的项目委员会任职。张潼在康奈尔大学获得数学和计算机科学学士学位,在斯坦福大学获得计算机科学博士学位。

崔鹏,清华大学计算机系长聘副教授,博士生导师。2010年于清华大学计算机系获得博士学位。研究兴趣包括社会动力学建模、大规模网络表征学习以及大数据驱动的因果推理和稳定预测。近5年在数据挖掘及人工智能领域高水平会议和期刊发表论文60余篇,曾5次获得顶级国际会议或期刊论文奖,并先后两次入选数据挖掘领域顶级国际会议KDD最佳论文专刊。目前担任IEEE TKDE、ACM TOMM、ACM TIST、IEEE TBD等国际期刊编委。曾获得国家自然科学二等奖、教育部自然科学一等奖、电子学会自然科学一等奖、CCF-IEEE CS青年科学家奖、ACM中国新星奖。入选中组部万人计划青年拔尖人才,并当选中国科协全国委员会委员。

成为VIP会员查看完整内容
0
59

机器学习模型经常被批评是技术黑箱:只要输入数据就能得到正确答案,但却无法对其进行解释。Christoph Molnar在其新书中呼吁大家当前是时候停止将机器学习模型视为黑盒子,在学会运用模型的同时更应去学会分析模型如何做出决策,并给出了将黑盒变得具有可解释性的讨论。

成为VIP会员查看完整内容
0
89

Machine-learning models have demonstrated great success in learning complex patterns that enable them to make predictions about unobserved data. In addition to using models for prediction, the ability to interpret what a model has learned is receiving an increasing amount of attention. However, this increased focus has led to considerable confusion about the notion of interpretability. In particular, it is unclear how the wide array of proposed interpretation methods are related, and what common concepts can be used to evaluate them. We aim to address these concerns by defining interpretability in the context of machine learning and introducing the Predictive, Descriptive, Relevant (PDR) framework for discussing interpretations. The PDR framework provides three overarching desiderata for evaluation: predictive accuracy, descriptive accuracy and relevancy, with relevancy judged relative to a human audience. Moreover, to help manage the deluge of interpretation methods, we introduce a categorization of existing techniques into model-based and post-hoc categories, with sub-groups including sparsity, modularity and simulatability. To demonstrate how practitioners can use the PDR framework to evaluate and understand interpretations, we provide numerous real-world examples. These examples highlight the often under-appreciated role played by human audiences in discussions of interpretability. Finally, based on our framework, we discuss limitations of existing methods and directions for future work. We hope that this work will provide a common vocabulary that will make it easier for both practitioners and researchers to discuss and choose from the full range of interpretation methods.

0
11
下载
预览
小贴士
相关VIP内容
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
70+阅读 · 2月24日
相关资讯
AI可解释性文献列表
专知
31+阅读 · 2019年10月7日
干货 | 可解释的机器学习
AI科技评论
6+阅读 · 2019年7月3日
强化学习十大原则
专知
5+阅读 · 2018年9月17日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
4+阅读 · 2018年3月3日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
6+阅读 · 2016年12月7日
相关论文
Emmanuel Bengio,Joelle Pineau,Doina Precup
6+阅读 · 3月13日
Liuyi Yao,Zhixuan Chu,Sheng Li,Yaliang Li,Jing Gao,Aidong Zhang
34+阅读 · 2月5日
Bernhard Schölkopf
4+阅读 · 2019年11月24日
Luca Franceschi,Mathias Niepert,Massimiliano Pontil,Xiao He
11+阅读 · 2019年3月28日
Interpretable machine learning: definitions, methods, and applications
W. James Murdoch,Chandan Singh,Karl Kumbier,Reza Abbasi-Asl,Bin Yu
11+阅读 · 2019年1月14日
Yao Quanming,Wang Mengshuo,Jair Escalante Hugo,Guyon Isabelle,Hu Yi-Qi,Li Yu-Feng,Tu Wei-Wei,Yang Qiang,Yu Yang
6+阅读 · 2018年10月31日
Ryo Takahashi,Ran Tian,Kentaro Inui
3+阅读 · 2018年5月24日
Myle Ott,Michael Auli,David Granger,Marc'Aurelio Ranzato
3+阅读 · 2018年2月28日
Quanshi Zhang,Ying Nian Wu,Song-Chun Zhu
12+阅读 · 2018年2月14日
Tianfu Wu,Xilai Li,Xi Song,Wei Sun,Liang Dong,Bo Li
3+阅读 · 2017年11月14日
Top