Interpretierbares maschinelles Lernen
Erklären Sie die Entscheidungen und das Verhalten von Modellen für maschinelles Lernen.
Zusammenfassung
Die aktuelle Version des Buches finden Sie hier: https://christophm.github.io/interpretable-ml-book/
In diesem Buch geht es um interpretierbares maschinelles Lernen. In vielen Produkten und Prozessen unseres täglichen Lebens wird maschinelles Lernen eingebaut, aber Entscheidungen von Maschinen sind nicht automatisch mit einer Erklärung verbunden. Eine Erklärung erhöht das Vertrauen in die Entscheidung und in das Modell für maschinelles Lernen. Als Programmierer eines Algorithmus möchten Sie wissen, ob Sie dem erlernten Modell vertrauen können. Hat es verallgemeinerbare Funktionen gelernt? Oder gibt es einige seltsame Artefakte in den Trainingsdaten, die der Algorithmus aufgenommen hat? Dieses Buch gibt einen Überblick über Techniken, mit denen schwarze Boxen so transparent wie möglich hergestellt und Entscheidungen erklärt werden können. Im ersten Kapitel werden Algorithmen, die einfache, interpretierbare Modelle erzeugen, zusammen mit Anweisungen eingeführt, wie die Ausgabe interpretiert wird. Die späteren Kapitel konzentrieren sich auf die Analyse komplexer Modelle und deren Entscheidungen. In einer idealen Zukunft können Maschinen ihre Entscheidungen erklären und in ein algorithmisches Zeitalter übergehen. Dieses Bücher wird für Praktiker, Datenwissenschaftler, Statistiker sowie für Stakeholder, die sich für die Verwendung von maschinellem Lernen und intelligenten Algorithmen entscheiden, für maschinelles Lernen empfohlen.
Das Buch wird automatisch aus dem Master-Zweig erstellt und durch GitHub-Aktionen auf GH-Seiten gedrängt.
Beitragen
Sehen Sie, wie man einen Beitrag leisten
Das Buch rendern
Klonen Sie das Repository.
git clone [email protected]:christophM/interpretable-ml-book.git
Stellen Sie sicher, dass alle Abhängigkeiten für das Buch installiert sind. Dieses Buch enthält die Struktur eines R -Pakets, sodass Abhängigkeiten einfach installiert werden können, nur R und die Devtools -Bibliothek sind erforderlich. Starten Sie eine R -Sitzung im Ordner des Buch -Repositorys und geben Sie ein:
Starten Sie zum Rendern des Buches eine R -Sitzung und geben Sie ein:
setwd("manuscript")
# first, generate the references
source("../scripts/references.R")
bookdown::render_book('.', 'bookdown::gitbook')
Nach dem Rendering befinden sich die HTML -Dateien des Buches im Ordner "_book". Sie können entweder direkt auf Index doppelklicken.html direkt oder natürlich in r:
browseURL('_book/index.html')
Anmerkungen zum Drucken mit lulu.com
- Exportieren von Leanpub in 7,44 "x 9,68" 18,9 cm x 24,6 cm
- Für die Abdeckung: 7,565 x 9,925 ", 19.226 x 25,224 cm, siehe empfohlene Größen
- Schriftart für die Titelseite: Francois One
Schreiben
Sachen, die beide für Leanpub und für Buchdown arbeiten:
- Titel beginnen mit #, Untertitel mit ## und so weiter.
- Titel können mit {#Tag-of-the-Title} mit dem Tag getaggt werden
- Kapitel können mithilfe von
[text of the link](#tag-of-the-title)
verwiesen werden. - Die Zahlen können mithilfe von
[text of the link](#fig:tag-of-r-chunk-that-produced-figure)
verwiesen werden. - Start und beenden Sie mathematische Ausdrücke mit
$
(inline) oder mit $$
(zusätzliche Linie). Wird automatisch für Leanpub mit einem RegexPR geändert. Das Conversion -Skript funktioniert nur, wenn sich keine leeren Leerzeichen in der Formel befinden. - Hinterlassen Sie leere Zeilen zwischen Formeln und Text (falls die Formel nicht inline). Formeln (mit $$ ... $$) sollten in einer Zeile sein und nicht über mehrere Zeilen (aufgrund von Parser).
- Referenzen müssen so geschrieben werden:
[^ref-tag]
und muss am Ende der jeweiligen Datei mit [^ref]: Details of the reference ...
Stellen Sie sicher, dass der Raum enthalten ist. Referenzen werden in 10-referenz.rmd mit den Skriptreferenzen gesammelt. Stellen Sie sicher, dass Sie [^ref-tag]:
Überall im Text, nur für die tatsächliche Referenz.
Drucken zum Korrekturlesen mit zusätzlichem Zeilenabstand: Erstellen Sie HTML-Buch, wechseln Sie zu Manuscript/_book/libs/Gitbook*/CSS/style.css, ändern Sie die Linienhöhe: 1.7 zu Linienhöhe: 2.5, öffnen Sie lokales HTML mit Chrome, drucken zu drucken, drucken zu. PDF mit benutzerdefinierter Marge.
Changelog
Alle bemerkenswerten Änderungen am Buch werden hier dokumentiert.
v2.0 (in Arbeit) [HTML -Version]
- "Vorwort vom Autor" hinzugefügt
- Startabschnitt zur Interpretation des neuronalen Netzwerks
- Kapitel zur Funktionsvisualisierung hinzugefügt
- Shap -Kapitel hinzugefügt
- Anchors Kapitel hinzugefügt
- Fixierter Fehler im Kapitel Logistische Regression: Die logistische Regression war die Vorhersage der Klasse "gesund", aber die Interpretation im Text war für die Klasse "Krebs". Jetzt haben Regressionsgewichte das richtige Zeichen.
- Umbenannt mit der Wichtigkeit von Funktionen in "Permutationsfunktion Wichtigkeit" umbenannt
- Kapitel über funktionale Zerlegung hinzugefügt
- Umgestattete Interpretationsmethoden durch lokales, globales und tiefes Lernen (vor: Modell-Agnostic, Beispielbasierte, tiefes Lernen)
- Errata:
- Kapitel 4.3 GLM, GAM und mehr: Logistische Regression verwendet Logit, nicht logistische Funktion als Linkfunktion.
- Kapitel Lineare Modelle: Die Formel für angepasste R-Quadrate wurde korrigiert (zweimal)
- Kapitelentscheidungsregeln: Die neu eingeführte Mischung zwischen gesunden und Krebs in Oner -Kapitel wurde festgelegt.
- Kapitelregelsfit: Die Bedeutung des linearen Terms in der Gesamtwichtigkeitsformulierung wurde mit einem indiziert $ l $ anstatt $ j $ .
- Aktualisierte Bilder
v1.1 (2019-03-23) [Druckversion, E-Book-Version]
- Behebung des falschen Index in der Köche Distanzsummierung (i -> j)
- Feste Boxplot -Formel (1,5 statt 1,58)
- Wechsel zu farbblindfreundlichen Farbpaletten (Viridis)
- Stellen Sie sicher, dass die Handlungen auch in Schwarzweiß funktionieren
- Erweitert das kontrafaktische Kapitel mit MOC (von Susanne Dandl)
V1.0 (2019-02-21)
- Umfangreiches Korrekturlesen und Polieren
V0.7 (2018-11-21)
- Umbenanntes Definitionen in Kapitel in die Terminologie umbenannt
- Mathematische Notation zur Terminologie (frühere Definitionen) hinzugefügt
- Lasso Beispiel hinzugefügt
- Umstrukturiertes LM -Kapitel umstrukturiert und Vor-/Nachteile hinzugefügt
- Umbenannt "Kriterien für Interpretierbarkeitsmethoden" in "Taxonomie der Interpretierbarkeitsmethoden" umbenannt "
- Hinzufügen von Vor- und Nachteilen der logistischen Regression hinzugefügt
- Liste der Referenzen am Ende des Buches hinzugefügt
- Im Kurzgeschichten Bilder hinzugefügt
- Nachteil des Shapley -Wertes: Feature muss unabhängig sein
- Die Zersetzung von Baumzusagen und die Wichtigkeit für das Baumkapitel hinzugefügt
- Verbesserte Erklärung der individuellen Vorhersage in LM
- Hinzugefügt "Was ist los mit meinem Hund" -Albile zu kontroversen Beispielen
- Links zu Datendateien und Vorverarbeitung von R-Skripten hinzugefügt
v0.6 (2018-11-02)
- Kapitel hinzugefügt über akkumulierte lokale Effektplots hinzugefügt
- PDPs einige Vor- und Nachteile hinzugefügt
- Kapitel zum Erweiterung linearer Modelle hinzugefügt
- Fehlendes Quadrat im Friedman H-Statistik behoben
- Diskussion über Training vs. Testdaten im Kapitel Wichtiges Merkmal hinzugefügt
- Verbesserte die Definitionen und fügte auch einige Grafiken hinzu
- Es fügte PDP ein Beispiel mit einer kategorialen Funktion hinzu
V0.5 (2018-08-14)
- Kapitel über einflussreiche Instanzen hinzugefügt
- Kapitel über Entscheidungsregeln hinzugefügt
- Kapitel über kontroverse Maschinenbeispiele hinzugefügt
- Kapitel über Prototypen und Kritikpunkte hinzugefügt
- Kapitel über kontrafaktische Erklärungen hinzugefügt
- Abschnitt zu Limettenbildern hinzugefügt (von Verena Haunschmid)
- Abschnitt hinzugefügt, wenn wir keine Interpretierbarkeit benötigen
- Umbenanntes Kapitel: Erklärungen im menschlichen Stil-> Mensch-freundliche Erklärungen
v0.4 (2018-05-23)
- Kapitel über globale Ersatzmodelle hinzugefügt
- Verbesserte Shapley -Piktogramme hinzugefügt
- Hinzufügen von Anerkennungskapitel
- Feature Interaction Chapter hinzugefügt
- Verbessertes Beispiel im partiellen Abhängigkeitsplotkapitel
- Die Gewichte im Kalktextkapitel, bei denen die falschen Wörter angezeigt werden. Dies wurde behoben.
- Verbesserter Einführungstext
- Kapitel über die Zukunft der Interpretierbarkeit hinzugefügt
- Kriterien für Interpretierbarkeitsmethoden hinzugefügt
v0.3 (2018-04-24)
- Überarbeitete das Kapitel von Wichtigkeitsfunktionen
- Dritte Kurzgeschichte hinzugefügt
- XKCD Comic entfernt
- Zusammengeführte Einführung und über die Buchkapitel
- Vor- und Nachteile von PDP- und ICE -Kapiteln hinzugefügt
- Verwendete das IML -Paket für Diagramme in Eis und PDP
- Umstrukturierte die Buchdateien für Leanpub um
- Eine Abdeckung hinzugefügt
- Es fügte einige CSS für schönere Formatierung hinzu
v0.2 (2018-02-13)
- Kapitel über Shapley Value -Erklärungen hinzugefügt
- Kurzgeschichtenkapitel hinzugefügt
- Spendenlinks im Vorwort hinzugefügt
- Überarbeitete Regelfit mit Beispielen und Theorie.
- Interpretierbarkeit Kapitel erweitert
- Fügen Sie Kapitel über Erklärungen im menschlichen Stil hinzu
- Erleichterung der Zusammenarbeit: Travis prüft, wenn das Buch für Pull -Anfragen gerendert werden kann
V0.1 (2017-12-03)
- Erste Veröffentlichung des interpretierbaren maschinellen Lernbuchs