Dies ist das offizielle Code-Repository für die O'Reilly-Publikation. Praktisches Deep Learning für Cloud, Mobile und Edge von Anirudh Koul, Siddha Ganju und Meher Kasam. ** Wird als Lernressource auf der offiziellen Keras-Website vorgestellt ** |
---|
[Online auf Safari] | [Auf Amazon kaufen] | [Online bei Google Books] | [Buch-Website] | [Präsentation auf Slideshare]
Egal, ob Sie ein Softwareentwickler sind, der in die Welt des Deep Learning einsteigen möchte, ein erfahrener Datenwissenschaftler oder ein Bastler mit dem einfachen Traum, die nächste virale KI-App zu entwickeln, Sie haben sich vielleicht gefragt, wo ich anfangen soll? In dieser Schritt-für-Schritt-Anleitung erfahren Sie, wie Sie mit einem praktischen Ansatz praktische Deep-Learning-Anwendungen für die Cloud, Mobilgeräte, Browser und Edge-Geräte erstellen.
Anirudh Koul, Siddha Ganju und Meher Kasam stützen sich auf jahrelange Branchenerfahrung bei der Umwandlung von Deep-Learning-Forschung in preisgekrönte Anwendungen und führen Sie durch den Prozess der Umwandlung einer Idee in etwas, das Menschen in der realen Welt nutzen können.
Kapitel 1 – Erkundung der Landschaft der künstlichen Intelligenz | Online lesen | Zahlen
Wir machen einen Rundgang durch diese sich entwickelnde Landschaft von den 1950er Jahren bis heute und analysieren die Zutaten, die ein perfektes Deep-Learning-Rezept ausmachen, machen uns mit der gängigen KI-Terminologie und Datensätzen vertraut und werfen einen Blick in die Welt der verantwortungsvollen KI.
Kapitel 2 – Was ist im Bild: Bildklassifizierung mit Keras | Online lesen | Zahlen
Wir tauchen in nur fünf Zeilen Keras-Code in die Welt der Bildklassifizierung ein. Anschließend erfahren wir, worauf neuronale Netze achten, während sie Vorhersagen treffen, indem wir Heatmaps auf Videos überlagern. Bonus: Wir hören die motivierende persönliche Reise von François Chollet , dem Schöpfer von Keras, und veranschaulichen die Wirkung, die ein einzelner Mensch haben kann.
Kapitel 3 – Katzen gegen Hunde: Transferlernen in 30 Zeilen mit Keras | Online lesen | Zahlen
Wir verwenden Transferlernen, um ein zuvor trainiertes Netzwerk für eine neue benutzerdefinierte Klassifizierungsaufgabe wiederzuverwenden und so in wenigen Minuten nahezu die Genauigkeit auf dem neuesten Stand der Technik zu erreichen. Anschließend zerlegen wir die Ergebnisse, um zu verstehen, wie gut sie klassifiziert werden können. Unterwegs bauen wir eine gemeinsame Pipeline für maschinelles Lernen auf, die im gesamten Buch wiederverwendet wird. Bonus: Wir hören von Jeremy Howard , Mitbegründer von fast.ai, wie Hunderttausende Schüler Transferlernen nutzen, um ihre KI-Reise voranzutreiben.
Kapitel 4 – Aufbau einer Reverse-Image-Suchmaschine: Einbettungen verstehen | Online lesen | Zahlen
Wie Google Reverse Image Search untersuchen wir, wie man Einbettungen nutzen kann – eine kontextbezogene Darstellung eines Bildes, um ähnliche Bilder in weniger als zehn Zeilen zu finden. Und dann beginnt der Spaß, wenn wir verschiedene Strategien und Algorithmen erkunden, um dies in großem Maßstab zu beschleunigen, von Tausenden bis hin zu mehreren Millionen Bildern, und sie in Mikrosekunden durchsuchbar zu machen.
Kapitel 5 – Vom Anfänger zum Meister-Prädiktor: Maximierung der Genauigkeit von Faltungs-Neuronalen Netzen | Online lesen | Zahlen
Wir erforschen Strategien zur Maximierung der Genauigkeit, die unser Klassifikator erreichen kann, mithilfe einer Reihe von Tools, darunter TensorBoard, What-If Tool, tf-explain, TensorFlow Datasets, AutoKeras und AutoAugment. Unterwegs führen wir Experimente durch, um eine Vorstellung davon zu entwickeln, welche Parameter für Ihre KI-Aufgabe geeignet sein könnten und welche nicht.
Kapitel 6 – Maximierung der Geschwindigkeit und Leistung von TensorFlow: Eine praktische Checkliste | Online lesen | Zahlen
Wir übertragen die Geschwindigkeit von Training und Inferenz auf Hyperdrive, indem wir eine Checkliste mit 30 Tricks durchgehen, um so viele Ineffizienzen wie möglich zu reduzieren und den Wert Ihrer aktuellen Hardware zu maximieren.
Kapitel 7 – Praktische Tools, Tipps und Tricks | Online lesen | Zahlen
Wir diversifizieren unsere praktischen Fähigkeiten in einer Vielzahl von Themen und Werkzeugen, die von der Installation, Datenerfassung, Versuchsverwaltung und Visualisierungen über die Verfolgung des neuesten Stands der Forschung bis hin zur Erkundung weiterer Möglichkeiten zum Aufbau der theoretischen Grundlagen reichen des tiefen Lernens.
Kapitel 8 – Cloud-APIs für Computer Vision: In 15 Minuten einsatzbereit | Online lesen | Zahlen
Arbeiten Sie klug, nicht hart. Wir nutzen die Leistungsfähigkeit der Cloud-KI-Plattformen von Google, Microsoft, Amazon, IBM und Clarifai in weniger als 15 Minuten. Für Aufgaben, die nicht mit vorhandenen APIs gelöst werden können, nutzen wir dann benutzerdefinierte Klassifizierungsdienste, um Klassifikatoren ohne Codierung zu trainieren. Und dann lassen wir sie in einem offenen Benchmark gegeneinander antreten. Sie werden überrascht sein, wer gewonnen hat.
Kapitel 9 – Skalierbare Inferenzbereitstellung in der Cloud mit TensorFlow Serving und KubeFlow | Online lesen | Zahlen
Wir bringen unser maßgeschneidertes Modell in die Cloud/lokal, um skalierbar Dutzende bis Millionen von Anfragen zu bedienen. Wir untersuchen Flask, Google Cloud ML Engine, TensorFlow Serving und KubeFlow und zeigen den Aufwand, das Szenario und die Kosten-Nutzen-Analyse.
Kapitel 10 – KI im Browser mit TensorFlow.js und ml5.js | Online lesen | Zahlen
Jede einzelne Person, die einen Computer oder ein Smartphone nutzt, hat einheitlich Zugriff auf ein Softwareprogramm – ihren Browser. Erreichen Sie alle diese Benutzer mit browserbasierten Deep-Learning-Bibliotheken, einschließlich TensorFlow.js und ml5.js. Gastautor Zaid Alyafeai führt uns durch Techniken und Aufgaben wie die Schätzung der Körperhaltung, generative kontradiktorische Netzwerke (GANs), Bild-zu-Bild-Übersetzung mit Pix2Pix und mehr, die nicht auf einem Server, sondern im Browser selbst ausgeführt werden. Bonus: Hören Sie von den Teams von TensorFlow.js und ml5.js, wie die Projekte entstanden sind.
Kapitel 11 – Echtzeit-Objektklassifizierung auf iOS mit Core ML | Online lesen | Zahlen
Wir erkunden die Landschaft des Deep Learning auf Mobilgeräten, mit einem starken Fokus auf das Apple-Ökosystem mit Core ML. Wir vergleichen Modelle auf verschiedenen iPhones, untersuchen Strategien zur Reduzierung der App-Größe und der Energieauswirkungen, dynamische Modellbereitstellung, Schulung auf dem Gerät und wie professionelle Apps erstellt werden.
Kapitel 12 – Kein Hotdog unter iOS mit Core ML und Create ML | Online lesen | Zahlen
Die Not Hotdog-App von Silicon Valley (von HBO) gilt als die „Hallo Welt“ der mobilen KI, daher zollen wir ihr Tribut, indem wir eine Echtzeitversion nicht auf eine, nicht auf zwei, sondern auf drei verschiedene Arten erstellen.
Kapitel 13 – Shazam für Lebensmittel: Entwicklung von Android-Apps mit TensorFlow Lite und ML Kit | Online lesen | Zahlen
Mit Hilfe von TensorFlow Lite bringen wir KI auf Android. Anschließend betrachten wir die plattformübergreifende Entwicklung mit ML Kit (das auf TensorFlow Lite aufbaut) und Fritz, um den End-to-End-Entwicklungslebenszyklus für die Erstellung einer sich selbst verbessernden KI-App zu untersuchen. Dabei befassen wir uns mit Modellversionierung, A/B-Tests, Erfolgsmessung, dynamischen Updates, Modelloptimierung und anderen Themen. Bonus: Wir erfahren etwas über Pete Wardens (technischer Leiter für Mobile und Embedded TensorFlow) umfangreiche Erfahrung bei der Bereitstellung von KI für Edge-Geräte.
Kapitel 14 – Erstellen der Purrfect Cat Locator-App mit der TensorFlow-Objekterkennungs-API | Online lesen | Zahlen
Wir untersuchen vier verschiedene Methoden zum Lokalisieren der Position von Objekten in Bildern. Wir werfen einen Blick auf die Entwicklung der Objekterkennung im Laufe der Jahre und analysieren die Kompromisse zwischen Geschwindigkeit und Genauigkeit. Dies bildet die Grundlage für Fallstudien wie Menschenmengenzählung, Gesichtserkennung und autonome Autos.
Kapitel 15 – Werde zum Macher: Erkundung eingebetteter KI am Edge | Online lesen | Zahlen
Gastautor Sam Sterckval bringt Deep Learning auf Geräte mit geringem Stromverbrauch, indem er eine Reihe von KI-fähigen Edge-Geräten mit unterschiedlicher Rechenleistung und unterschiedlichen Kosten vorstellt, darunter Raspberry Pi, NVIDIA Jetson Nano, Google Coral, Intel Movidius und PYNQ-Z2 FPGA Türen für Robotik- und Maker-Projekte. Bonus: Hören Sie vom NVIDIA Jetson Nano-Team , wie Menschen aus ihrem Open-Source-Rezeptbuch schnell kreative Roboter bauen.
Kapitel 16 – Simulation eines selbstfahrenden Autos mithilfe von End-to-End Deep Learning mit Keras | Online lesen | Zahlen
Mithilfe der fotorealistischen Simulationsumgebung von Microsoft AirSim führen uns die Gastautoren Aditya Sharma und Mitchell Spryn dabei an, ein virtuelles Auto zu trainieren, indem sie es zunächst in der Umgebung fahren und dann einem KI-Modell beibringen, sein Verhalten zu reproduzieren. Darüber hinaus behandelt dieses Kapitel eine Reihe von Konzepten, die in der autonomen Automobilindustrie anwendbar sind.
Kapitel 17 – Aufbau eines autonomen Autos in weniger als einer Stunde: Reinforcement Learning mit AWS DeepRacer | Online lesen | Zahlen
Gastautor Sunil Mallya geht von der virtuellen in die physische Welt und zeigt, wie AWS DeepRacer, ein Miniaturauto, in weniger als einer Stunde zusammengebaut, trainiert und gefahren werden kann. Und mit Hilfe von Reinforcement Learning lernt das Auto, selbstständig zu fahren, Fehler zu bestrafen und den Erfolg zu maximieren. Wir lernen, wie wir dieses Wissen auf Rennen anwenden können, von den Olympischen Spielen des KI-Fahrens bis hin zu RoboRace (mit autonomen Autos in Originalgröße). Bonus: Hören Sie von Anima Anandkumar (NVIDIA) und Chris Anderson (Gründer von DIY Robocars), wohin sich die selbstfahrende Automobilindustrie entwickelt.
Zunächst einmal herzlich willkommen! Wir freuen uns, dass Sie sich entschieden haben, das Buch und den Code zu nutzen, um mehr über Deep Learning zu erfahren! Wir wünschen Ihnen alles Gute für Ihren weiteren Weg. Hier sind einige Dinge, die Sie bei der Verwendung des Repositorys beachten sollten.
code
vorhanden.Bitte befolgen Sie diese Anweisungen, um das GitHub-Repo auf Google Colab zu laden. Bedenken Sie, dass Sie Zugriff auf Ihr eigenes Google Drive benötigen, da wir Daten von einem lokalen System verwenden.
Wir werden im gesamten Buch eine virtualenv
namens practicaldl
verwenden. Die requirements.txt
für diese virtualenv
befindet sich im Stammverzeichnis. Hilfe und Anweisungen zur Installation virtualenv
finden Sie im Abschnitt „Installation“ im FAQ-Dokument.
Bitte reichen Sie gemäß CONTRIBUTING ein Problem ein und wir werden es untersuchen.
@AnirudhKoul ist ein bekannter KI-Experte, UN/TEDx-Sprecher und ehemaliger Wissenschaftler bei Microsoft AI & Research, wo er Seeing AI gründete, das nach dem iPhone oft als die in der Blindengemeinschaft am häufigsten verwendete Technologie gilt. Anirudh fungiert als Head of AI & Research bei Aira, das vom Time Magazine als eine der besten Erfindungen des Jahres 2018 ausgezeichnet wurde. Mit Funktionen, die einer Milliarde Nutzern zur Verfügung gestellt wurden, bringt er über ein Jahrzehnt produktionsorientierte angewandte Forschungserfahrung mit Datensätzen im PetaByte-Bereich mit. Er hat Technologien entwickelt, die KI-Techniken für Augmented Reality, Robotik, Sprache, Produktivität und Barrierefreiheit nutzen. Seine Arbeit im Bereich „KI für das Gute“, die das IEEE als „lebensverändernd“ bezeichnet hat, wurde von der CES, der FCC, dem MIT, den Cannes Lions und dem American Council of the Blind ausgezeichnet und bei Veranstaltungen der UN, des Weltwirtschaftsforums und des Weißen Hauses präsentiert , House of Lords, Netflix, National Geographic und von Weltführern wie Justin Trudeau und Theresa May gelobt.
@SiddhaGanju , ein KI-Forscher, den Forbes in die 30-unter-30-Liste aufgenommen hat, ist selbstfahrender Architekt bei Nvidia. Als KI-Beraterin der NASA FDL half sie beim Aufbau einer automatisierten Meteorerkennungspipeline für das CAMS-Projekt der NASA, die schließlich zur Entdeckung eines Kometen führte. Zuvor entwickelte sie bei Deep Vision Deep-Learning-Modelle für ressourcenbeschränkte Edge-Geräte. Ihre Arbeit reicht von der visuellen Beantwortung von Fragen über generative gegnerische Netzwerke bis hin zum Sammeln von Erkenntnissen aus den Daten im Petabyte-Bereich des CERN und wurde auf hochrangigen Konferenzen wie CVPR und NeurIPS veröffentlicht. Sie war Jurymitglied bei mehreren internationalen Technologiewettbewerben, darunter der CES. Als Verfechterin von Vielfalt und Inklusion in der Technologie hält sie Vorträge an Schulen und Hochschulen, um eine neue Generation von Technologien mit unterschiedlichem Hintergrund zu motivieren und zu fördern.
@MeherKasam ist ein erfahrener Softwareentwickler mit Apps, die täglich von zig Millionen Benutzern verwendet werden. Derzeit ist er iOS-Entwickler bei Square und hat zuvor bei Microsoft und Amazon gearbeitet. Er hat Funktionen für eine Reihe von Apps bereitgestellt, von Squares Point of Sale bis zur Bing iPhone-App. Zuvor arbeitete er bei Microsoft, wo er die mobile Entwicklungsleitung für die Seeing AI-App leitete, die unter anderem vom Mobile World Congress, der CES, der FCC und dem American Council of the Blind große Anerkennung und Auszeichnungen erhalten hat. Im Herzen ein Hacker mit einem Gespür für schnelles Prototyping, hat er mehrere Hackathons gewonnen und diese in Funktionen umgesetzt, die in weit verbreiteten Produkten enthalten sind. Er fungiert außerdem als Juror bei internationalen Wettbewerben, darunter den Global Mobile Awards und den Edison Awards.
Bitte zitieren Sie uns, wenn Sie unseren Code verwenden.
@book{Koul2019PracticalDLBook,
title={Practical Deep Learning for Cloud, Mobile and Edge: Real-World AI and Computer Vision Projects Using Python, Keras and TensorFlow},
author={Koul, A. and Ganju, S. and Kasam, M.},
isbn={9781492034865},
url={https://www.oreilly.com/library/view/practical-deep-learning/9781492034858/},
year={2019},
publisher={O'Reilly Media, Incorporated}
}