Die ergänzenden Materialien zum Buch „Machine Learning Q and AI“ von Sebastian Raschka.
Bitte nutzen Sie die Diskussionen für Fragen zum Buch!
Wenn Sie sich mit den Grundlagen des maschinellen Lernens und der KI vertraut gemacht haben und auf unterhaltsame Weise bestehende Wissenslücken schließen möchten, ist dieses Buch genau das Richtige für Sie. Diese schnelle Reihe kurzer Kapitel befasst sich mit 30 wesentlichen Fragen auf diesem Gebiet und hilft Ihnen, über die neuesten Technologien auf dem Laufenden zu bleiben, die Sie in Ihre eigene Arbeit implementieren können.
In jedem Kapitel von „Machine Learning Q and AI“ wird eine zentrale Frage gestellt und beantwortet, mit Diagrammen zur Erläuterung neuer Konzepte und zahlreichen Referenzen zur weiteren Lektüre
Dieses Buch ist eine vollständig bearbeitete und überarbeitete Version von Machine Learning Q and AI, die auf Leanpub verfügbar war.
„Man könnte sich kaum einen besseren Führer wünschen als Sebastian, der ohne Übertreibung derzeit der beste Pädagoge für maschinelles Lernen auf diesem Gebiet ist. Auf jeder Seite vermittelt Sebastian nicht nur sein umfangreiches Wissen, sondern teilt auch die Leidenschaft und Neugier, die wahre Fachkompetenz auszeichnen.“
– Chris Albon, Direktor für maschinelles Lernen, The Wikimedia Foundation
Titel | URL-Link | Ergänzungscode |
---|---|---|
1 | Einbettungen, Darstellungen und latenter Raum | |
2 | Selbstüberwachtes Lernen | |
3 | Few-Shot-Lernen | |
4 | Die Lottoschein-Hypothese | |
5 | Reduzierung der Überanpassung mit Daten | |
6 | Reduzierung der Überanpassung durch Modelländerungen | |
7 | Multi-GPU-Trainingsparadigmen | |
8 | Der Schlüssel zum Erfolg von Transformers | |
9 | Generative KI-Modelle | |
10 | Quellen der Zufälligkeit | data-sampling.ipynb dropout.ipynb random-weights.ipynb |
TEIL II: COMPUTER-VISION | ||
11 | Berechnung der Anzahl der Parameter | conv-size.ipynb |
12 | Die Äquivalenz von vollständig verbundenen und Faltungsschichten | fc-cnn-equivalence.ipynb |
13 | Große Trainingssets für Vision Transformer | |
TEIL III: NATÜRLICHE SPRACHVERARBEITUNG | ||
14 | Die Verteilungshypothese | |
15 | Datenerweiterung für Text | rückübersetzung.ipynb Noise-Injection.ipynb Satzreihenfolge-Shuffling.ipynb synonym-replacement.ipynb synthetische-daten.ipynb Wortlöschung.ipynb Wortpositionsaustausch.ipynb |
16 | „Selbst“-Aufmerksamkeit | |
17 | Transformatoren im Encoder- und Decoder-Stil | |
18 | Verwendung und Feinabstimmung vorab trainierter Transformatoren | |
19 | Evaluierung generativer großer Sprachmodelle | BERTScore.ipynb bleu.ipynb Ratlosigkeit.ipynb rouge.ipynb |
TEIL IV: PRODUKTION UND BEREITSTELLUNG | ||
20 | Staatenloses und zustandsbehaftetes Training | |
21 | Datenzentrierte KI | |
22 | Beschleunigung der Schlussfolgerung | |
23 | Veränderungen bei der Datenverteilung | |
TEIL V: PRÄDIKTIVE LEISTUNG UND MODELLBEWERTUNG | ||
24 | Poisson und ordinale Regression | |
25 | Konfidenzintervalle | four-methods.ipynb vier-methoden-vs-wahrer-wert.ipynb |
26 | Konfidenzintervalle im Vergleich zu konformen Vorhersagen | konforme_Vorhersage.ipynb |
27 | Richtige Kennzahlen | |
28 | Das K in der K-Fold-Kreuzvalidierung | |
29 | Diskrepanz zwischen Trainings- und Testsätzen | |
30 | Begrenzte beschriftete Daten |