可解釋的機器學習
解釋機器學習模型的決策和行為。
概括
您可以在此處找到本書的當前版本:https://christophm.github.io/interpretable-ml-book/
這本書是關於可解釋的機器學習。機器學習已建立在我們日常生活的許多產品和過程中,但是機器做出的決定並不能自動提供解釋。解釋增加了對決策和機器學習模型的信任。作為算法的程序員,您想知道您是否可以信任學習的模型。它學習了可推廣的功能嗎?還是算法拾取的訓練數據中有一些奇怪的工件?這本書將概述有關可用於使黑匣子盡可能透明的技術並解釋決策的概述。在第一章中,產生簡單,可解釋的模型的算法以及指令如何解釋輸出。後面的章節著重於分析複雜模型及其決策。在理想的未來,機器將能夠解釋他們的決定,並過渡到算法時代更人性化。這些書建議用於機器學習從業人員,數據科學家,統計學家,以及決定使用機器學習和智能算法的利益相關者。
這本書是從主分支自動構建的,並通過GitHub Action推到GHPAGES。
貢獻
看看如何貢獻
渲染這本書
克隆存儲庫。
git clone [email protected]:christophM/interpretable-ml-book.git
確保已安裝本書的所有依賴項。本書具有R軟件包的結構,因此可以輕鬆安裝依賴項,只需要R,並且需要DevTools庫。在書籍存儲庫的文件夾中啟動R會話,然後鍵入:
要渲染這本書,請啟動R會話並輸入:
setwd("manuscript")
# first, generate the references
source("../scripts/references.R")
bookdown::render_book('.', 'bookdown::gitbook')
渲染後,本書的HTML文件將在“ _Book”文件夾中。您可以雙擊index.html,或者當然可以在r:
browseURL('_book/index.html')
使用lulu.com打印筆記
- 從LeanPub出口7.44“ x 9.68” 18.9厘米x 24.6厘米
- 封面:7.565 x 9.925“,19.226 x 25.224cm,請參閱建議尺寸
- 前封面字體:弗朗索瓦(Francois)
寫作
兩者都適用於LeanPub和預訂的東西:
- 標題從#開始,字幕##等。
- 可以使用{#標籤標籤}標記標題
- 可以使用
[text of the link](#tag-of-the-title)
來引用章節 - 可以通過使用
[text of the link](#fig:tag-of-r-chunk-that-produced-figure)
- 用
$
(內聯)或$$
(額外的行)開始和結束數學表達式。將使用RegexPR自動更改LeanPub。轉換腳本僅在公式中沒有空的空格時起作用。 - 在公式和文本之間留空線(如果公式不在線)。公式(帶有$$ ... $$)應為一行,而不是多行(由於解析器)。
- 參考必須像這樣寫:
[^ref-tag]
並且必須在相應文件的末尾使用[^ref]: Details of the reference ...
確保包括空間。參考文獻以10- reference.rmd收集,並帶有腳本參考。r。確保不使用[^ref-tag]:
文本中的任何地方,僅在底部以供實際參考。
用額外的線間距進行校對的打印:構建HTML書籍,轉到手稿/_Book/libs/gitbook*/css/style.css,更改線路高:1.7到線路高點:2.5,2.5,用Chrome打開本地HTML ,用Chrome打開,打印到具有自定義保證金的PDF。
ChangElog
本書的所有值得注意的更改將在此處記錄。
v2.0(正在進行中)[HTML版本]
- 添加了“作者的序言”一章
- 開始有關神經網絡解釋的部分
- 添加了功能可視化的章節
- 添加了Shap章節
- 添加了錨定章
- 邏輯回歸章節中的固定錯誤章節:邏輯回歸預測了類“健康”,但文本中的解釋是“癌症”類。現在,回歸權重有正確的符號。
- 重命名為“置換特徵重要性”的特徵重要性一章
- 添加了有關功能分解的章節
- 本地,全球和深度學習的重新排列解釋方法(以前:模型不合時宜,基於示例,深度學習)
- Errata:
- 第4.3章GLM,GAM等:Logistic回歸使用Logit,而不是邏輯函數作為鏈接功能。
- 章節線性模型:校正了調整後的R平方的公式(兩次)
- 章節決策規則:在Oner章節中,新引入的健康和癌症之間的混合是固定的。
- 章節規則fit:線性術語在“總重要性”中的重要性是用一個 $ L $而不是 $ J $ 。
- 更新的圖像
V1.1(2019-03-23)[印刷版,電子書版本]
- 修復了庫克斯距離總和中的錯誤索引(i-> j)
- 固定Boxplot公式(1.5而不是1.58)
- 更改為色盲友好的調色板(Viridis)
- 確保繪圖也可以在黑白中起作用
- 使用MOC(由Susanne Dandl)擴展反事實章節
V1.0(2019-02-21)
V0.7(2018-11-21)
- 重命名為術語的定義章節
- 在術語(以前的定義)一章中添加了數學符號
- 添加了套索示例
- 重組LM章並增加了優點/缺點
- 重命名為“可解釋性方法的標準”為“可解釋性方法的分類學”
- 增加了邏輯回歸的優勢和缺點
- 在書結尾處添加了參考文獻列表
- 在短篇小說中添加了圖像
- Shapley Value的添加缺點:功能必須獨立
- 添加了樹的分解和特徵對樹章節的重要性
- 改進了LM中個人預測的解釋
- 添加了“我的狗怎麼了”的例子
- 添加了數據文件和預處理R腳本的鏈接
V0.6(2018-11-02)
- 添加了有關累積局部效果圖的章節
- 為PDP添加了一些優點和缺點
- 添加了有關擴展線性模型的章節
- 固定在弗里德曼H統計效果中的缺失正方形
- 有關培訓與測試數據的討論添加了特徵重要性一章
- 改進了定義,還添加了一些圖形
- 在PDP中添加了一個帶有分類功能的示例
V0.5(2018-08-14)
- 添加了有關有影響力實例的章節
- 添加了決策規則的章節
- 添加了關於對抗機示例的章節
- 添加了有關原型和批評的章節
- 添加了反事實解釋的章節
- 在石灰圖像上添加了部分(Verena Haunschmid)
- 添加了我們何時不需要解釋性的部分
- 更名的章節:人類式解釋 - >對人友好的解釋
V0.4(2018-05-23)
- 添加了有關全球替代模型的章節
- 添加了改進的Shapley象形圖
- 添加了致謝章節
- 添加的功能交互章節
- 在部分依賴圖中改進了示例章節
- 石灰文本章節中的權重,其中顯示了錯誤的單詞。這已經解決了。
- 改進的介紹文本
- 添加了有關解釋性的未來的章節
- 添加了可解釋性方法的標準
V0.3(2018-04-24)
- 重新設計了功能重要性一章
- 添加了第三個短篇小說
- 刪除了XKCD漫畫
- 合併的介紹和書籍章節
- 在PDP和ICE章節中增加了優點和缺點
- 開始使用IML軟件包作為冰和PDP中的圖
- 重組LeanPub的書籍文件
- 添加了蓋子
- 添加了一些CSS,以改善格式
V0.2(2018-02-13)
- 添加了有關沙普利價值解釋的章節
- 添加了短篇小說章節
- 序言中添加了捐贈鏈接
- 重新設計的規則函數,示例和理論。
- 解釋性章節擴展
- 添加有關人類式解釋的章節
- 使協作變得更容易:Travis檢查是否可以為拉的請求渲染書籍
V0.1(2017-12-03)