简介: 机器学习可解释性的新方法以惊人的速度发布。与所有这些保持最新将是疯狂的,根本不可能。这就是为什么您不会在本书中找到最新颖,最有光泽的方法,而是找到机器学习可解释性的基本概念的原因。这些基础知识将为您做好使机器学​​习模型易于理解的准备。

可解释的是使用可解释的模型,例如线性模型或决策树。另一个选择是与模型无关的解释工具,该工具可以应用于任何监督的机器学习模型。与模型不可知的章节涵盖了诸如部分依赖图和置换特征重要性之类的方法。与模型无关的方法通过更改机器学习的输入来起作用建模并测量输出中的变化。

本书将教您如何使(监督的)机器学习模型可解释。这些章节包含一些数学公式,但是即使没有数学知识,您也应该能够理解这些方法背后的思想。本书不适用于尝试从头开始学习机器学习的人。如果您不熟悉机器学习,则有大量书籍和其他资源可用于学习基础知识。我推荐Hastie,Tibshirani和Friedman(2009)撰写的《统计学习的要素》一书和Andrewra Ng在Coursera³上开设的“机器学习”在线课程,着手进行机器学习。这本书和课程都是免费的!在本书的最后,对可解释机器学习的未来前景持乐观态度。

目录:

  • 前言
  • 第一章 引言
  • 第二章 解释性
  • 第三章 数据集
  • 第四章 解释模型
  • 第五章 模型不可知论方法
  • 第六章 基于实例的解释
  • 第七章 神经网络解释
  • 第八章 水晶球
  • 第九章 贡献
  • 第十章 引用本书

成为VIP会员查看完整内容
Interpretable-machine-learning.pdf
0
110

相关内容

可解释性是指一个人能够持续预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。

【导读】可解释性是当下机器学习研究特点之一。最近,来自复旦大学的研究生朱明超,将业界《Interpretable Machine Learning》(可解释机器学习)翻译成了中文。

可解释机器学习:打开黑盒之谜(238页书籍下载)

这本书最初是由德国慕尼黑大学博士Christoph Molnar耗时两年完成的,长达250页,是仅有的一本系统介绍可解释性机器学习的书籍。

这本书最初是由Christoph Molnar耗时两年完成的《Interpretable Machine Learning》,长达250页,在公开至今该书得到密切关注,这是在可解释性领域可以找到的仅有的一本书。

这本书由复旦大学朱明超完成它的翻译和校正工作,目前已经开源放到GitHub网页上,《可解释的机器学习》。作者Christoph Molnar 在其后也发到了推特上。

“可解释”是这本书的核心论题。作者Molnar认为,可解释性在机器学习甚至日常生活中都是相当重要的一个问题。建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读本书。

Molnar表示,虽然数据集与黑盒机器学习解决了很多问题,但这不是最好的使用姿势,现在模型本身代替了数据成为了信息的来源,但可解释性可以提取模型捕捉到的额外信息。当我们的日常生活中全都是机器和算法时,也需要可解释性来增加社会的接受度。毕竟要是连科学家都研究不透“黑盒”,怎样让普通人完全信任模型做出的决策呢?

这本书的重点是机器学习的可解释性。你将学习简单的、可解释的模型,如线性回归、决策树和决策规则等。后面几章重点介绍了解释黑盒模型的模型无关的一般方法,如特征重要性和累积局部效应,以及用 Shapley 值和 LIME 解释单个实例预测。

对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释它们的输出?本书将使你能够选择并正确应用最适合你的机器学习项目的解释方法。你阅读本书后,内化知识还使你能够更好地理解和评估arxiv.org上发表的有关可解释性的新论文。

这本书中用许多平实的语言,结合各类现实生活中的例子介绍了相关的概念,还配了参考链接可以进一步学习了解。

《可解释的机器学习》该书总共包含 7 章内容。章节目录如下:

  • 第一章:前言
  • 第二章:可解释性
  • 第三章:数据集
  • 第四章:可解释的模型
  • 第五章:模型无关方法
  • 第六章:基于样本的解释
  • 第七章:水晶球

传送门 GitHub:https://github.com/MingchaoZhu/InterpretableMLBook

成为VIP会员查看完整内容
0
214

题目: Interpreting Interpretability: Understanding Data Scientists’Use of Interpretability Tools for Machine Learning

摘要: 机器学习(ML)模型现在经常应用于从刑事司法到医疗保健的各个领域。随着这种新发现的普遍性,ML已经超越了学术界,发展成为一门工程学科。为此,设计了解释工具来帮助数据科学家和机器学习实践者更好地理解ML模型的工作方式。然而,很少有人评估这些工具在多大程度上实现了这一目标。我们研究数据技术人员使用两种现有的解释性工具,GAMs的解释性ml实现和SHAP Python包。我们对数据科学家进行了背景调查(N=11)和调查(N=197),以观察他们如何使用可解释性工具来发现在构建和计算ML模型时出现的常见问题。我们的结果表明,数据科学家过度信任和滥用解释工具。此外,我们的参与者很少能够准确地描述这些工具的可视化输出。我们为数据科学家强调可解释工具的心智模型的定性主题。我们总结了对研究人员和工具设计者的启示,并将我们的发现置于社会科学文献的背景中。

成为VIP会员查看完整内容
0
30

机器学习(ML)模型现在经常应用于从刑事司法到医疗保健的各个领域。随着这种新发现的普遍性,ML已经超越了学术界,发展成为一门工程学科。为此,解释工具设计来帮助数据科学家和机器学习实践者更好地理解ML模型的工作方式。然而,很少有人评估这些工具在多大程度上实现了这一目标。我们研究数据科学家对两种现有的可解释性工具的使用,即GAMs的解释性ml实现和SHAP Python包。我们对数据科学家进行了背景调查(N=11)和调查(N=197),以观察他们如何使用可解释性工具来发现在构建和评估ML模型时出现的常见问题。我们的结果表明,数据科学家过度信任和滥用解释工具。此外,很少有参与者能够准确地描述这些工具的可视化输出。我们为数据科学家的可解释工具心智模型强调定性主题。我们总结了对研究人员和工具设计者的启示,并将我们的发现置于社会科学文献的背景中。

成为VIP会员查看完整内容
0
57

主题: Predictive Models: Explore, Explain, and Debug,Human-Centered Interpretable Machine Learning

简介: 在这本书中,我们提出了一系列可用于模型验证、模型探索和模型决策解释的方法。由于这类方法的发展是一个非常活跃的研究领域,而且新方法几乎是在连续的基础上出现的,因此我们并不打算穷尽所有的方法。相反,我们提出了思维定势、关键问题和一些可用于模型探索的方法示例。

作者介绍: Przemyslaw Biecek,华沙理工大学的副教授和华沙大学的助理教授。他的研究方向是大型复杂数据的预测建模、数据可视化和模型可解释性。http://pbiecek.github.io/index.html

Tomasz Burzykowski,博士,哈塞尔特大学理学院教授。https://www.uhasselt.be/fiche_en?email=tomasz.burzykowski

成为VIP会员查看完整内容
0
24

机器学习模型经常被批评是技术黑箱:只要输入数据就能得到正确答案,但却无法对其进行解释。Christoph Molnar在其新书中呼吁大家当前是时候停止将机器学习模型视为黑盒子,在学会运用模型的同时更应去学会分析模型如何做出决策,并给出了将黑盒变得具有可解释性的讨论。

成为VIP会员查看完整内容
0
100
小贴士
相关VIP内容
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
192+阅读 · 2020年3月17日
机器学习速查手册,135页pdf
专知会员服务
160+阅读 · 2020年3月15日
相关论文
Interpretable CNNs for Object Classification
Quanshi Zhang,Xin Wang,Ying Nian Wu,Huilin Zhou,Song-Chun Zhu
14+阅读 · 2020年3月12日
Summit: Scaling Deep Learning Interpretability by Visualizing Activation and Attribution Summarizations
Fred Hohman,Haekyu Park,Caleb Robinson,Duen Horng Chau
3+阅读 · 2019年9月2日
Luca Franceschi,Mathias Niepert,Massimiliano Pontil,Xiao He
4+阅读 · 2019年5月17日
Qiuchi Li,Benyou Wang,Massimo Melucci
3+阅读 · 2019年4月10日
Interpretable machine learning: definitions, methods, and applications
W. James Murdoch,Chandan Singh,Karl Kumbier,Reza Abbasi-Asl,Bin Yu
12+阅读 · 2019年1月14日
Bo-Jian Hou,Zhi-Hua Zhou
16+阅读 · 2018年10月25日
Interpretable Convolutional Neural Networks via Feedforward Design
C. -C. Jay Kuo,Min Zhang,Siyang Li,Jiali Duan,Yueru Chen
4+阅读 · 2018年10月5日
Quanshi Zhang,Ying Nian Wu,Song-Chun Zhu
14+阅读 · 2018年2月14日
Quanshi Zhang,Song-Chun Zhu
12+阅读 · 2018年2月7日
Tianfu Wu,Xilai Li,Xi Song,Wei Sun,Liang Dong,Bo Li
3+阅读 · 2017年11月14日
Top