可解释的机器学习
解释机器学习模型的决策和行为。
概括
您可以在此处找到本书的当前版本:https://christophm.github.io/interpretable-ml-book/
这本书是关于可解释的机器学习。机器学习已建立在我们日常生活的许多产品和过程中,但是机器做出的决定并不能自动提供解释。解释增加了对决策和机器学习模型的信任。作为算法的程序员,您想知道您是否可以信任学习的模型。它学习了可推广的功能吗?还是算法拾取的训练数据中有一些奇怪的工件?这本书将概述有关可用于使黑匣子尽可能透明的技术并解释决策的概述。在第一章中,产生简单,可解释的模型的算法以及指令如何解释输出。后面的章节着重于分析复杂模型及其决策。在理想的未来,机器将能够解释他们的决定,并过渡到算法时代更人性化。这些书建议用于机器学习从业人员,数据科学家,统计学家,以及决定使用机器学习和智能算法的利益相关者。
这本书是从主分支自动构建的,并通过GitHub Action推到GHPAGES。
贡献
看看如何贡献
渲染这本书
克隆存储库。
git clone [email protected]:christophM/interpretable-ml-book.git
确保已安装本书的所有依赖项。本书具有R软件包的结构,因此可以轻松安装依赖项,只需要R,并且需要DevTools库。在书籍存储库的文件夹中启动R会话,然后键入:
要渲染这本书,请启动R会话并输入:
setwd("manuscript")
# first, generate the references
source("../scripts/references.R")
bookdown::render_book('.', 'bookdown::gitbook')
渲染后,本书的HTML文件将在“ _Book”文件夹中。您可以双击index.html,或者当然可以在r:
browseURL('_book/index.html')
使用lulu.com打印笔记
- 从LeanPub出口7.44“ x 9.68” 18.9厘米x 24.6厘米
- 封面:7.565 x 9.925“,19.226 x 25.224cm,请参阅建议尺寸
- 前封面字体:弗朗索瓦(Francois)
写作
两者都适用于LeanPub和预订的东西:
- 标题从#开始,字幕##等。
- 可以使用{#标签标签}标记标题
- 可以使用
[text of the link](#tag-of-the-title)
来引用章节 - 可以通过使用
[text of the link](#fig:tag-of-r-chunk-that-produced-figure)
- 用
$
(内联)或$$
(额外的行)开始和结束数学表达式。将使用RegexPR自动更改LeanPub。转换脚本仅在公式中没有空的空格时起作用。 - 在公式和文本之间留空线(如果公式不在线)。公式(带有$$ ... $$)应为一行,而不是多行(由于解析器)。
- 参考必须像这样写:
[^ref-tag]
并且必须在相应文件的末尾使用[^ref]: Details of the reference ...
确保包括空间。参考文献以10- reference.rmd收集,并带有脚本参考。r。确保不使用[^ref-tag]:
文本中的任何地方,仅在底部以供实际参考。
用额外的线间距进行校对的打印:构建HTML书籍,转到手稿/_Book/libs/gitbook*/css/style.css,更改线路高:1.7到线路高点:2.5,2.5,用Chrome打开本地HTML,用Chrome打开,打印到具有自定义保证金的PDF。
ChangElog
本书的所有值得注意的更改将在此处记录。
v2.0(正在进行中)[HTML版本]
- 添加了“作者的序言”一章
- 开始有关神经网络解释的部分
- 添加了功能可视化的章节
- 添加了Shap章节
- 添加了锚定章
- 逻辑回归章节中的固定错误章节:逻辑回归预测了类“健康”,但文本中的解释是“癌症”类。现在,回归权重有正确的符号。
- 重命名为“置换特征重要性”的特征重要性一章
- 添加了有关功能分解的章节
- 本地,全球和深度学习的重新排列解释方法(以前:模型不合时宜,基于示例,深度学习)
- Errata:
- 第4.3章GLM,GAM等:Logistic回归使用Logit,而不是逻辑函数作为链接功能。
- 章节线性模型:校正了调整后的R平方的公式(两次)
- 章节决策规则:在Oner章节中,新引入的健康和癌症之间的混合是固定的。
- 章节规则fit:线性术语在“总重要性”中的重要性是用一个 $ L $而不是 $ J $ 。
- 更新的图像
V1.1(2019-03-23)[印刷版,电子书版本]
- 修复了库克斯距离总和中的错误索引(i-> j)
- 固定Boxplot公式(1.5而不是1.58)
- 更改为色盲友好的调色板(Viridis)
- 确保绘图也可以在黑白中起作用
- 使用MOC(由Susanne Dandl)扩展反事实章节
V1.0(2019-02-21)
V0.7(2018-11-21)
- 重命名为术语的定义章节
- 在术语(以前的定义)一章中添加了数学符号
- 添加了套索示例
- 重组LM章并增加了优点/缺点
- 重命名为“可解释性方法的标准”为“可解释性方法的分类学”
- 增加了逻辑回归的优势和缺点
- 在书结尾处添加了参考文献列表
- 在短篇小说中添加了图像
- Shapley Value的添加缺点:功能必须独立
- 添加了树的分解和特征对树章节的重要性
- 改进了LM中个人预测的解释
- 添加了“我的狗怎么了”的例子
- 添加了数据文件和预处理R脚本的链接
V0.6(2018-11-02)
- 添加了有关累积局部效果图的章节
- 为PDP添加了一些优点和缺点
- 添加了有关扩展线性模型的章节
- 固定在弗里德曼H统计效果中的缺失正方形
- 有关培训与测试数据的讨论添加了特征重要性一章
- 改进了定义,还添加了一些图形
- 在PDP中添加了一个带有分类功能的示例
V0.5(2018-08-14)
- 添加了有关有影响力实例的章节
- 添加了决策规则的章节
- 添加了关于对抗机示例的章节
- 添加了有关原型和批评的章节
- 添加了反事实解释的章节
- 在石灰图像上添加了部分(Verena Haunschmid)
- 添加了我们何时不需要解释性的部分
- 更名的章节:人类式解释 - >对人友好的解释
V0.4(2018-05-23)
- 添加了有关全球替代模型的章节
- 添加了改进的Shapley象形图
- 添加了致谢章节
- 添加的功能交互章节
- 在部分依赖图中改进了示例章节
- 石灰文本章节中的权重,其中显示了错误的单词。这已经解决了。
- 改进的介绍文本
- 添加了有关解释性的未来的章节
- 添加了可解释性方法的标准
V0.3(2018-04-24)
- 重新设计了功能重要性一章
- 添加了第三个短篇小说
- 删除了XKCD漫画
- 合并的介绍和书籍章节
- 在PDP和ICE章节中增加了优点和缺点
- 开始使用IML软件包作为冰和PDP中的图
- 重组LeanPub的书籍文件
- 添加了盖子
- 添加了一些CSS,以改善格式
V0.2(2018-02-13)
- 添加了有关沙普利价值解释的章节
- 添加了短篇小说章节
- 序言中添加了捐赠链接
- 重新设计的规则函数,示例和理论。
- 解释性章节扩展
- 添加有关人类式解释的章节
- 使协作变得更容易:Travis检查是否可以为拉的请求渲染书籍
V0.1(2017-12-03)