Listen aller KI-bezogenen Lernmaterialien und praktischen Tools für den Einstieg in KI-Apps
Selbstgesteuerte Labore
AWS-Labore zum Selbststudium bieten praktische Übungen in einer Live-AWS-Umgebung mit AWS-Services und realen Cloud-Szenarien. Befolgen Sie die Schritt-für-Schritt-Anleitungen, um einen Service zu erlernen, einen Anwendungsfall zu üben oder sich auf die AWS-Zertifizierung vorzubereiten.
Einführungslabor
Lex
Polly
Anerkennung
Maschinelles Lernen
Maschinelles Lernen
Sitzung 1 – Entwickler in die Lage versetzen, intelligente Anwendungen zu erstellen
Sitzung 2 – Vorhersage der Kundenabwanderung mit Amazon Machine Learning
AWS Machine Learning – End-to-End-verwalteter Service zum Erstellen und Testen von ML-Modellen und zum anschließenden Bereitstellen dieser Modelle in der Produktion
Dokumentation
AWS Deep Learning AMI – Amazon Machine Image (AMI), optimiert für Deep-Learning-Bemühungen
Empfohlene zusätzliche Ressourcen
Bringen Sie Ihre Fähigkeiten mit Grundlagen-, Fortgeschrittenen- und Expertenlaboren auf die nächste Stufe.
Nachfolgend finden Sie das Lernmaterial, das Ihnen dabei hilft, mehr über Google Cloud zu erfahren.
Netzwerk
Das Codelab bietet allgemeine Cloud-Entwicklererfahrung wie folgt:
Entwicklung von Lösungen für die Google Cloud Platform – 8 Stunden
Infrastruktur
Daten
KI, Big Data und maschinelles Lernen
Zusätzliche KI-Materialien
(Optional) Deep Learning und Tensorflow
Zusätzliches Referenzmaterial
(Beiträge sind in diesem Bereich willkommen)
Visual Studio
UCI-Datensätze
Vorkenntnisse erforderlich
Ausbildungswege
Wenn Sie über die oben genannten erforderlichen Fähigkeiten verfügen, nehmen Sie am Fortgeschrittenen-Trainingspfad teil, andernfalls am Anfänger-Trainingspfad.
Vorausgesetzte Tutorials
Umgebung einrichten
Kognitive Dienste (Intelligenz definieren)
Bot Framework (Erstellen von Chat-Bots)
Umgebung einrichten
Kognitive Dienste (Intelligenz definieren)
Bot Framework (Erstellen von Chat-Bots)
Kognitive Dienste (Intelligenz definieren) – Labore
Bot Framework (Erstellen von Chat-Bots) – Labore
Quelle Berkeley
Vorlesungstitel | Dozent | Semester | |
Vorlesung 1 | Einführung | Dan Klein | Herbst 2012 |
Vorlesung 2 | Uninformierte Suche | Dan Klein | Herbst 2012 |
Vorlesung 3 | Informierte Suche | Dan Klein | Herbst 2012 |
Vorlesung 4 | Constraint-Satisfaction-Probleme I | Dan Klein | Herbst 2012 |
Vorlesung 5 | Constraint-Satisfaction-Probleme II | Dan Klein | Herbst 2012 |
Vorlesung 6 | Gegnerische Suche | Dan Klein | Herbst 2012 |
Vorlesung 7 | Expectimax und Dienstprogramme | Dan Klein | Herbst 2012 |
Vorlesung 8 | Markov-Entscheidungsprozesse I | Dan Klein | Herbst 2012 |
Vorlesung 9 | Markov-Entscheidungsprozesse II | Dan Klein | Herbst 2012 |
Vorlesung 10 | Verstärkungslernen I | Dan Klein | Herbst 2012 |
Vorlesung 11 | Verstärkungslernen II | Dan Klein | Herbst 2012 |
Vorlesung 12 | Wahrscheinlichkeit | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 13 | Markov-Modelle | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 14 | Versteckte Markov-Modelle | Dan Klein | Herbst 2013 |
Vorlesung 15 | Anwendungen von HMMs / Sprache | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 16 | Bayes-Netze: Darstellung | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 17 | Bayes-Netze: Unabhängigkeit | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 18 | Bayes-Netze: Schlussfolgerung | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 19 | Bayes-Netze: Probenahme | Pieter Abbeel | Herbst 2013 |
Vorlesung 20 | Entscheidungsdiagramme / Wert perfekter Informationen | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 21 | Maschinelles Lernen: Naive Bayes | Nicholas Hay | Frühjahr 2014 |
Vorlesung 22 | Maschinelles Lernen: Perzeptrone | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 23 | Maschinelles Lernen: Kernel und Clustering | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 24 | Erweiterte Anwendungen: NLP, Spiele und Roboterautos | Pieter Abbeel | Frühjahr 2014 |
Vorlesung 25 | Fortgeschrittene Anwendungen: Computer Vision und Robotik | Pieter Abbeel | Frühjahr 2014 |
Darüber hinaus gibt es zusätzliche Schritt-für-Schritt-Videos, die die Vorlesungsmaterialien ergänzen. Diese Videos sind unten aufgeführt:
Vorlesungstitel | Dozent | Notizen | |
SBS-1 | DFS und BFS | Pieter Abbeel | Lec: Uninformierte Suche |
SBS-2 | A* Suche | Pieter Abbeel | Lec: Informierte Suche |
SBS-3 | Alpha-Beta-Beschneidung | Pieter Abbeel | Lec: Gegnerische Suche |
SBS-4 | D-Trennung | Pieter Abbeel | Lec: Bayes‘ Netze: Unabhängigkeit |
SBS-5 | Eliminierung einer Variablen | Pieter Abbeel | Lec: Bayes' Netze: Folgerung |
SBS-6 | Variableneliminierung | Pieter Abbeel | Lec: Bayes' Netze: Folgerung |
SBS-7 | Probenahme | Pieter Abbeel | Lec: Bayes-Netze: Probenahme |
SBS-8 | Maximale Wahrscheinlichkeit | Pieter Abbeel | Lec: Maschinelles Lernen: Naive Bayes |
SBS-9 | Laplace-Glättung | Pieter Abbeel | Lec: Maschinelles Lernen: Naive Bayes |
SBS-10 | Perzeptrone | Pieter Abbeel | Vorlesung: Maschinelles Lernen: Perzeptrone |
Nachfolgend finden Sie die Vortragsvideos der aktuellsten Angebote.
Vorlesungsvideos Frühjahr 2014
Vorlesungsvideos Herbst 2013
Vorlesungsvideos Frühjahr 2013
Vorlesungsvideos vom Herbst 2012
Vorlesungstitel | Dozent | Notizen | |
Vorlesung 1 | Einführung | Pieter Abbeel | |
Vorlesung 2 | Uninformierte Suche | Pieter Abbeel | |
Vorlesung 3 | Informierte Suche | Pieter Abbeel | |
Vorlesung 4 | Constraint-Satisfaction-Probleme I | Pieter Abbeel | Die Aufnahme ist etwas unzuverlässig, eine Alternative finden Sie in Vorlesung 4 im Herbst 2013 |
Vorlesung 5 | Constraint-Satisfaction-Probleme II | Pieter Abbeel | |
Vorlesung 6 | Gegnerische Suche | Pieter Abbeel | |
Vorlesung 7 | Expectimax und Dienstprogramme | Pieter Abbeel | |
Vorlesung 8 | Markov-Entscheidungsprozesse I | Pieter Abbeel | |
Vorlesung 9 | Markov-Entscheidungsprozesse II | Pieter Abbeel | |
Vorlesung 10 | Verstärkungslernen I | Pieter Abbeel | |
Vorlesung 11 | Verstärkungslernen II | Pieter Abbeel | |
Vorlesung 12 | Wahrscheinlichkeit | Pieter Abbeel | |
Vorlesung 13 | Markov-Modelle | Pieter Abbeel | |
Vorlesung 14 | Versteckte Markov-Modelle | Pieter Abbeel | Die Aufnahme ist etwas unzuverlässig, eine Alternative finden Sie in Vorlesung 18 im Herbst 2013 |
Vorlesung 15 | Anwendungen von HMMs / Sprache | Pieter Abbeel | |
Vorlesung 16 | Bayes-Netze: Darstellung | Pieter Abbeel | |
Vorlesung 17 | Bayes-Netze: Unabhängigkeit | Pieter Abbeel | |
Vorlesung 18 | Bayes-Netze: Schlussfolgerung | Pieter Abbeel | |
Vorlesung 19 | Bayes-Netze: Probenahme | Pieter Abbeel | Nicht aufgezeichnet, siehe Herbstvorlesung 2013, 16 |
Vorlesung 20 | Entscheidungsdiagramme / Wert perfekter Informationen | Pieter Abbeel | |
Vorlesung 21 | Maschinelles Lernen: Naive Bayes | Nicholas Hay | |
Vorlesung 22 | Maschinelles Lernen: Perzeptrone | Pieter Abbeel | |
Vorlesung 23 | Maschinelles Lernen: Kernel und Clustering | Pieter Abbeel | |
Vorlesung 24 | Erweiterte Anwendungen: NLP, Spiele und Roboterautos | Pieter Abbeel | |
Vorlesung 25 | Fortgeschrittene Anwendungen: Computer Vision und Robotik | Pieter Abbeel | |
Vorlesung 26 | Abschluss | Pieter Abbeel | Nicht eingetragen |
Vorlesungstitel | Dozent | Notizen | |
Vorlesung 1 | Einführung | Dan Klein | |
Vorlesung 2 | Uninformierte Suche | Dan Klein | |
Vorlesung 3 | Informierte Suche | Dan Klein | |
Vorlesung 4 | Constraint-Satisfaction-Probleme I | Dan Klein | |
Vorlesung 5 | Constraint-Satisfaction-Probleme II | Dan Klein | |
Vorlesung 6 | Gegnerische Suche | Dan Klein | |
Vorlesung 7 | Expectimax und Dienstprogramme | Dan Klein | |
Vorlesung 8 | Markov-Entscheidungsprozesse I | Dan Klein | |
Vorlesung 9 | Markov-Entscheidungsprozesse II | Dan Klein | |
Vorlesung 10 | Verstärkungslernen I | Dan Klein | |
Vorlesung 11 | Verstärkungslernen II | Dan Klein | |
Vorlesung 12 | Wahrscheinlichkeit | Pieter Abbeel | |
Vorlesung 13 | Bayes-Netze: Darstellung | Pieter Abbeel | |
Vorlesung 14 | Bayes-Netze: Unabhängigkeit | Dan Klein | |
Vorlesung 15 | Bayes-Netze: Schlussfolgerung | Pieter Abbeel | |
Vorlesung 16 | Bayes-Netze: Probenahme | Pieter Abbeel | |
Vorlesung 17 | Entscheidungsdiagramme / Wert perfekter Informationen | Pieter Abbeel | |
Vorlesung 18 | Versteckte Markov-Modelle | Dan Klein | |
Vorlesung 19 | Anwendungen von HMMs / Sprache | Dan Klein | |
Vorlesung 20 | Maschinelles Lernen: Naive Bayes | Dan Klein | |
Vorlesung 21 | Maschinelles Lernen: Perzeptrone | Dan Klein | |
Vorlesung 22 | Maschinelles Lernen: Kernel und Clustering | Pieter Abbeel | |
Vorlesung 23 | Maschinelles Lernen: Entscheidungsbäume und neuronale Netze | Pieter Abbeel | |
Vorlesung 24 | Erweiterte Anwendungen: NLP und Roboterautos | Dan Klein | Nicht aufgezeichnet, siehe Frühjahrsvorlesung 2013, 24 |
Vorlesung 25 | Fortgeschrittene Anwendungen: Computer Vision und Robotik | Pieter Abbeel | |
Vorlesung 26 | Abschluss | Dan Klein, Pieter Abbeel | Nicht eingetragen |
Vorlesungstitel | Dozent | Notizen | |
Vorlesung 1 | Einführung | Pieter Abbeel | Video heruntergefahren |
Vorlesung 2 | Uninformierte Suche | Pieter Abbeel | |
Vorlesung 3 | Informierte Suche | Pieter Abbeel | |
Vorlesung 4 | Constraint-Satisfaction-Probleme I | Pieter Abbeel | |
Vorlesung 5 | Constraint-Satisfaction-Probleme II | Pieter Abbeel | Nicht aufgezeichnet, siehe Herbstvorlesung 2012, 5 |
Vorlesung 6 | Gegnerische Suche | Pieter Abbeel | |
Vorlesung 7 | Expectimax und Dienstprogramme | Pieter Abbeel | |
Vorlesung 8 | Markov-Entscheidungsprozesse I | Pieter Abbeel | |
Vorlesung 9 | Markov-Entscheidungsprozesse II | Pieter Abbeel | |
Vorlesung 10 | Verstärkungslernen I | Pieter Abbeel | |
Vorlesung 11 | Verstärkungslernen II | Pieter Abbeel | |
Vorlesung 12 | Wahrscheinlichkeit | Pieter Abbeel | |
Vorlesung 13 | Bayes-Netze: Darstellung | Pieter Abbeel | |
Vorlesung 14 | Bayes-Netze: Unabhängigkeit | Pieter Abbeel | |
Vorlesung 15 | Bayes-Netze: Schlussfolgerung | Pieter Abbeel | |
Vorlesung 16 | Bayes-Netze: Probenahme | Pieter Abbeel | |
Vorlesung 17 | Entscheidungsdiagramme / Wert perfekter Informationen | Pieter Abbeel | |
Vorlesung 18 | Versteckte Markov-Modelle | Pieter Abbeel | |
Vorlesung 19 | Anwendungen von HMMs / Sprache | Pieter Abbeel | |
Vorlesung 20 | Maschinelles Lernen: Naive Bayes | Pieter Abbeel | |
Vorlesung 21 | Maschinelles Lernen: Perzeptrone I | Nicholas Hay | |
Vorlesung 22 | Maschinelles Lernen: Perzeptrone II | Pieter Abbeel | |
Vorlesung 23 | Maschinelles Lernen: Kernel und Clustering | Pieter Abbeel | |
Vorlesung 24 | Erweiterte Anwendungen: NLP und Roboterautos | Pieter Abbeel | |
Vorlesung 25 | Fortgeschrittene Anwendungen: Computer Vision und Robotik | Pieter Abbeel | |
Vorlesung 26 | Abschluss | Pieter Abbeel | Nicht eingetragen |
Vorlesungstitel | Dozent | Notizen | |
Vorlesung 1 | Einführung | Dan Klein | |
Vorlesung 2 | Uninformierte Suche | Dan Klein | |
Vorlesung 3 | Informierte Suche | Dan Klein | |
Vorlesung 4 | Constraint-Satisfaction-Probleme I | Dan Klein | |
Vorlesung 5 | Constraint-Satisfaction-Probleme II | Dan Klein | |
Vorlesung 6 | Gegnerische Suche | Dan Klein | |
Vorlesung 7 | Expectimax und Dienstprogramme | Dan Klein | |
Vorlesung 8 | Markov-Entscheidungsprozesse I | Dan Klein | |
Vorlesung 9 | Markov-Entscheidungsprozesse II | Dan Klein | |
Vorlesung 10 | Verstärkungslernen I | Dan Klein | |
Vorlesung 11 | Verstärkungslernen II | Dan Klein | |
Vorlesung 12 | Wahrscheinlichkeit | Pieter Abbeel | |
Vorlesung 13 | Bayes-Netze: Darstellung | Pieter Abbeel | |
Vorlesung 14 | Bayes-Netze: Unabhängigkeit | Pieter Abbeel | |
Vorlesung 15 | Bayes-Netze: Schlussfolgerung | Pieter Abbeel | |
Vorlesung 16 | Bayes-Netze: Probenahme | Pieter Abbeel | |
Vorlesung 17 | Entscheidungsdiagramme / Wert perfekter Informationen | Pieter Abbeel | |
Vorlesung 18 | Versteckte Markov-Modelle | Pieter Abbeel | |
Vorlesung 19 | Anwendungen von HMMs / Sprache | Dan Klein | |
Vorlesung 20 | Maschinelles Lernen: Naive Bayes | Dan Klein | |
Vorlesung 21 | Maschinelles Lernen: Perzeptrone | Dan Klein | |
Vorlesung 22 | Maschinelles Lernen: Kernel und Clustering | Dan Klein | |
Vorlesung 23 | Maschinelles Lernen: Entscheidungsbäume und neuronale Netze | Pieter Abbeel | |
Vorlesung 24 | Fortgeschrittene Anwendungen: Computer Vision und Robotik | Pieter Abbeel | |
Vorlesung 25 | Erweiterte Anwendungen: NLP und Roboterautos | Dan Klein, Pieter Abbeel | Nicht eingetragen |
Vorlesung 26 | Abschluss | Dan Klein, Pieter Abbeel | Nicht eingetragen |
Hier ist der vollständige Satz an Vorlesungsfolien, einschließlich Videos und Videos von Demos, die in der Vorlesung durchgeführt wurden: Folien [~3 GB].
Die folgende Liste enthält alle Powerpoint-Folien der Vorlesung:
Die Quelldateien für alle Live-Demos in der Vorlesung werden von Berkeley AI zur Veröffentlichung vorbereitet
Neueste arxiv-Artikeleinreichungen zum Thema KI
Peter Norvig – Bringen Sie sich selbst das Programmieren in zehn Jahren bei
So forschen Sie im MIT AI Lab
Eine Roadmap zur maschinellen Intelligenz
Kollaboratives Filtern mit wiederkehrenden neuronalen Netzen (2016)
Wide & Deep Learning für Empfehlungssysteme (2016)
Tiefgreifende kollaborative Filterung mittels Marginalized Denoising Auto-Encoder (2015)
Nichtparametrische bayesianische Multitask-Kollaborationsfilterung (2013)
Tensorflow: Groß angelegtes maschinelles Lernen auf heterogenen verteilten Systemen
https://infoscience.epfl.ch/record/82802/files/rr02-46.pdf
Theano: Ein CPU- und GPU-Compiler für mathematische Ausdrücke.
Caffe: Faltungsarchitektur für schnelles Einbetten von Funktionen
Chainer: Ein leistungsstarkes, flexibles und intuitives Framework für neuronale Netze
Groß angelegte verteilte tiefe Netzwerke
Umfangreiche Videoklassifizierung mit Faltungs-Neuronalen Netzen
Effiziente Schätzung von Wortdarstellungen im Vektorraum
Grammatik als Fremdsprache
Mit Faltungen tiefer gehen
ÜBER GLEICHRICHTENDE LINEARE EINHEITEN FÜR DIE SPRACHVERARBEITUNG
Tiefe neuronale Netze für die akustische Modellierung in der Spracherkennung: Die gemeinsamen Ansichten von vier Forschungsgruppen.
Erkennung mehrstelliger Zahlen aus Street View-Bildern mithilfe von Deep Convolutional Neural Networks
Google übergibt seine lukrative Websuche an KI-Maschinen
Stanford Syllabus CS 20SI: Tensorflow für Deep-Learning-Forschung
Vergleichende Untersuchung von Deep-Learning-Software-Frameworks
** Reddit_ML – Was liest du? **
Quelle:https://medium.com/intuitionmachine/infographic-best-practices-in-training-deep-learning-networks-b8a3df1db53
Quelle: https://medium.com/intuitionmachine/the-deep-learning-roadmap-f0b4cac7009a
Quelle: https://medium.com/intuitionmachine/infographic-best-practices-in-training-deep-learning-networks-b8a3df1db53
Quelle: http://www.asimovinstitute.org/neural-network-zoo/
Quelle: https://docs.microsoft.com/en-us/azure/machine-learning/machine-learning-algorithm-cheat-sheet
Quelle: http://blogs.sas.com/content/subciousmusings/2017/04/12/machine-learning-algorithm-use/
Quelle: http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/
Quelle: https://www.analyticsvidhya.com/blog/2015/09/full-cheatsheet-machine-learning-algorithms/
Quelle: http://datasciencefree.com/python.pdf
Quelle: https://www.datacamp.com/community/tutorials/python-data-science-cheat-sheet-basics#gs.0x1rxEA
Quelle: https://www.dataquest.io/blog/numpy-cheat-sheet/
Quelle: http://datasciencefree.com/numpy.pdf
Quelle: https://www.datacamp.com/community/blog/python-numpy-cheat-sheet#gs.Nw3V6CE
Quelle: https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/numpy/numpy.ipynb
Quelle: http://datasciencefree.com/pandas.pdf
Quelle: https://www.datacamp.com/community/blog/python-pandas-cheat-sheet#gs.S4P4T=U
Quelle: https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/pandas/pandas.ipynb
Quelle: https://www.datacamp.com/community/blog/python-matplotlib-cheat-sheet
Quelle: https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/matplotlib/matplotlib.ipynb
Quelle: https://www.datacamp.com/community/blog/scikit-learn-cheat-sheet#gs.fZ2A1Jk
Quelle: http://peekaboo-vision.blogspot.de/2013/01/machine-learning-cheat-sheet-for-scikit.html
Quelle: https://github.com/rcompton/ml_cheat_sheet/blob/master/supervised_learning.ipynb
Quelle: https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/1_Introduction/basic_operations.ipynb
Quelle: https://github.com/bfortuner/pytorch-cheatsheet
Quelle: http://www.wzchen.com/s/probability_cheatsheet.pdf
Quelle: https://minireference.com/static/tutorials/linear_algebra_in_4_pages.pdf
Quelle: http://web.mit.edu/~csvoss/Public/usabo/stats_handout.pdf
Quelle: http://tutorial.math.lamar.edu/getfile.aspx?file=B,41,N