„ Deep Learning “ ist das einzige umfassende Buch auf dem Gebiet des Deep Learning. Sein vollständiger Name wird auch „Deep Learning AI Bible“ (Deep Learning) genannt. Es wird von drei weltbekannten Experten, Ian Goodfellow, Yoshua Bengio und Aaron, herausgegeben Courville. Das Buch behandelt Hintergrundwissen über Mathematik und verwandte Konzepte, einschließlich verwandter Inhalte in linearer Algebra, Wahrscheinlichkeitstheorie, Informationstheorie, numerischer Optimierung und maschinellem Lernen. Gleichzeitig werden Deep-Learning-Technologien vorgestellt, die von Praktikern in der Branche verwendet werden, darunter Deep-Feedforward-Netzwerke, Regularisierung, Optimierungsalgorithmen, Faltungsnetzwerke, Sequenzmodellierung und praktische Methoden, und Themen wie die Verarbeitung natürlicher Sprache und Anwendungen in der Spracherkennung werden untersucht , Computer Vision, Online-Empfehlungssysteme, Bioinformatik und Videospiele. Schließlich bietet das Deep-Learning-Buch auch einige Forschungsrichtungen, die theoretische Themen abdecken, darunter lineare Faktormodelle, Autoencoder, Repräsentationslernen, strukturierte Wahrscheinlichkeitsmodelle, Monte-Carlo-Methoden, Partitionsfunktionen, Näherungsinferenz und tiefe generative Modelle, die für die Verwendung durch Hochschulen geeignet sind Studenten oder Doktoranden in verwandten Hauptfächern.
Sie können die chinesische PDF-Version und die englische PDF-Version von „Deep Learning“ herunterladen und direkt lesen.
Für die Arbeit dieses Projekts können Sie Deep Learning_Principles and Code Implementation.pdf direkt herunterladen (das Buch wird später kontinuierlich aktualisiert).
„Deep Learning“ kann als Einführung in Deep Learning und künstliche Intelligenz bezeichnet werden. Viele Algorithmen-Enthusiasten, Schulungskurse für maschinelles Lernen und Interviews mit Internetunternehmen beziehen sich auf dieses Buch. Allerdings ist dieses Buch unklar und die offizielle Code-Implementierung wird nicht bereitgestellt, sodass einige Teile schwer zu verstehen sind. Dieses Projekt beschreibt die Konzepte im Buch basierend auf mathematischen Ableitungs- und Generierungsprinzipien neu und verwendet Python (hauptsächlich die Numpy-Bibliothek), um den Buchinhalt zu reproduzieren ( Code-Implementierung auf Quellebene). Der Ableitungsprozess und die Code-Implementierung werden im PDF platziert Datei im Download-Bereich , der wichtige Teil des Implementierungscodes wird auch im Code-Ordner abgelegt).
Allerdings ist mein Niveau begrenzt, aber ich hoffe aufrichtig, dass diese Arbeit mehr Menschen helfen kann, Deep-Learning-Algorithmen zu erlernen. Ich brauche den Rat und die Hilfe aller. Wenn Sie beim Lesen auf Fehler oder unklare Erklärungen stoßen, hoffe ich, dass Sie Ihre Vorschläge zusammenfassen und unter „Probleme“ einreichen können. Wenn auch Sie sich dieser Arbeit anschließen möchten oder andere Fragen haben, können Sie mich per E-Mail kontaktieren. Wenn Sie dieses Buch in Ihrer Arbeit oder Ihrem Blog verwenden, fügen Sie bitte einen Zitierlink hinzu.
Während des Schreibprozesses habe ich auf viele hervorragende Online-Werke verwiesen und alle Referenzressourcen sind in der Datei reference.txt
gespeichert.
Diese Aufgabe besteht darin, dieses Buch Deep Learning_Principles and Code Implementation.pdf zu schreiben. Wie Sie in der PDF-Datei sehen können, wird jedes Konzept des „Deep Learning“ ausführlich beschrieben, auf der Prinzipebene abgeleitet und im Code implementiert. Die Code-Implementierung ruft kein Deep-Learning-Framework wie Tensorflow, PyTorch, MXNet oder sogar sklearn auf (der Teil, der sklearn im PDF verwendet, wird verwendet, um zu überprüfen, ob der Code korrekt ist. Alle Codes werden auf der Prinzipebene (Python) implementiert Basisbibliothek NumPy) und haben detaillierte Kommentare, die mit dem Prinzipbeschreibungsbereich über dem Codebereich übereinstimmen. Sie können es verstehen, indem Sie die Prinzipien und den Code kombinieren.
Der Grund für diesen Job ist meine eigene Liebe, aber um diesen Job zu erledigen, muss ich viel Zeit und Energie investieren und normalerweise schreibe ich bis zwei oder drei Uhr morgens. Die Ableitung, Codierung und Zeichnung werden alle langsam verfeinert, und ich werde die Qualität dieser Arbeit sicherstellen. Dieser Job wird laufend aktualisiert und die hochgeladenen Kapitel werden weiterhin mit Inhalten ergänzt. Wenn Sie während des Lesevorgangs auf Konzepte oder Fehler stoßen, die Sie beschreiben möchten, senden Sie mir bitte eine E-Mail, um mich darüber zu informieren.
Vielen Dank für Ihre Anerkennung und Beförderung. Bitte warten Sie abschließend auf das nächste Update.
Mein Name ist Zhu Mingchao, meine E-Mail ist: [email protected]
2020/3/:
1. 修改第五章决策树部分,补充 ID3 和 CART 的原理,代码实现以 CART 为主。
2. 第七章添加 L1 和 L2 正则化最优解的推导 (即 L1稀疏解的原理)。
3. 第七章添加集成学习方法的推导与代码实现,包括 Bagging (随机森林)、 Boosting ( Adaboost 、 GBDT 、 XGBoost )。
4. 第八章添加牛顿法与拟牛顿法 ( DFP 、 BFGS 、 L - BFGS ) 的推导。
5. 第十一章节添加贝叶斯线性回归、高斯过程回归 ( GPR ) 与贝叶斯优化的推导与代码实现。
Jedes nachfolgende Update wird in der Datei update.txt
abgelegt.
Zusätzlich zu den konzeptionellen Punkten im Buch „Deep Learning“ fügt dieses Projekt jedem Kapitel auch einige ergänzende Kenntnisse hinzu, wie z. B. den Random Forest im integrierten Lernteil von Kapitel 7, die Prinzipanalyse und Codeimplementierung von Adaboost, GBDT, und XGBoost, oder das zehnte Kapitel Kapitel 2 beschreibt einige aktuelle Mainstream-Methoden . Das große Inhaltsverzeichnis des Kapitels und den Link zum Herunterladen der PDF-Datei finden Sie in der Tabelle unten. Das tatsächliche Inhaltsverzeichnis der jeweiligen PDF-Datei finden Sie unter contents.txt
. Sie können die entsprechenden Kapitel über den PDF-Link unten herunterladen oder alle Dateien direkt in der Release-Oberfläche herunterladen.
Chinesische Verse | Englisches Kapitel | herunterladen (Einschließlich Ableitung und Code-Implementierung) |
---|---|---|
Kapitel 1 Vorwort | 1 Einleitung | |
Kapitel 2 Lineare Algebra | 2 Lineare Algebra | |
Kapitel 3 Wahrscheinlichkeits- und Informationstheorie | 3 Wahrscheinlichkeits- und Informationstheorie | |
Kapitel 4 Numerische Berechnung | 4 Numerische Berechnung | |
Kapitel 5 Grundlagen des maschinellen Lernens | 5 Grundlagen des maschinellen Lernens | |
Kapitel 6 Deep Feedforward-Netzwerk | 6 Deep-Feedforward-Netzwerke | |
Kapitel 7 Regularisierung im Deep Learning | 7 Regularisierung für Deep Learning | |
Kapitel 8 Optimierung in tiefen Modellen | 8 Optimierung für das Training tiefer Modelle | |
Kapitel 9 Faltungsnetzwerk | 9 Faltungsnetzwerke | |
Kapitel 10 Sequenzmodellierung: Rekurrente und rekursive Netzwerke | 10 Sequenzmodellierung: Rekurrente und rekursive Netze | |
Kapitel 11 Praktische Methodik | 11 Praktische Methodik | |
Kapitel 12 Anwendung | 12 Anwendungen | |
Kapitel 13 Linearfaktormodell | 13 Linearfaktormodelle | |
Kapitel 14 Autoencoder | 14 Autoencoder | |
Kapitel 15 Lernen ausdrücken | 15 Repräsentationslernen | |
Kapitel 16 Strukturiertes probabilistisches Modell im Deep Learning | 16 strukturierte probabilistische Modelle für Deep Learning | |
Kapitel 17 Monte-Carlo-Methode | 17 Monte-Carlo-Methoden | |
Kapitel 18 Konfrontation mit der Partitionsfunktion | 18 Konfrontation mit der Partitionsfunktion | |
Kapitel 19 Ungefähre Schlussfolgerung | 19 Ungefähre Schlussfolgerung | |
Kapitel 20 Tiefe generative Modelle | 20 tiefgreifende generative Modelle |
Noch nicht hochgeladene Kapitel werden in Zukunft hochgeladen.
Vielen Dank für die Anerkennung und Förderung dieses Projekts.
Das Schreiben dieses Projekts hat Zeit und Mühe gekostet. Wenn Ihnen dieses Projekt weiterhilft, können Sie dem Autor ein Eis gönnen: