Este es el depósito de código oficial de la publicación O'Reilly. Aprendizaje profundo práctico para la nube, dispositivos móviles y perimetrales por Anirudh Koul, Siddha Ganju y Meher Kasam. ** Destacado como recurso de aprendizaje en el sitio web oficial de Keras ** |
---|
[En línea en Safari] | [Comprar en Amazon] | [En línea en Google Books] | [Sitio web del libro] | [Presentación en Slideshare]
Si usted es un ingeniero de software que aspira a ingresar al mundo del aprendizaje profundo, un científico de datos veterano o un aficionado con el simple sueño de crear la próxima aplicación viral de IA, es posible que se haya preguntado ¿por dónde empiezo? Esta guía paso a paso le enseña cómo crear aplicaciones prácticas de aprendizaje profundo para la nube, dispositivos móviles, navegadores y dispositivos perimetrales mediante un enfoque práctico.
Basándose en años de experiencia en la industria transformando la investigación de aprendizaje profundo en aplicaciones galardonadas, Anirudh Koul, Siddha Ganju y Meher Kasam lo guiarán a través del proceso de convertir una idea en algo que las personas en el mundo real puedan usar.
Capítulo 1 - Explorando el panorama de la inteligencia artificial | Leer en línea | Figuras
Hacemos un recorrido por este panorama en evolución, desde la década de 1950 hasta la actualidad, y analizamos los ingredientes que componen una receta perfecta de aprendizaje profundo, nos familiarizamos con la terminología y los conjuntos de datos comunes de la IA y echamos un vistazo al mundo de la IA responsable.
Capítulo 2 - Qué hay en la imagen: Clasificación de imágenes con Keras | Leer en línea | Figuras
Nos adentramos en el mundo de la clasificación de imágenes en apenas cinco líneas de código Keras. Luego aprendemos a qué prestan atención las redes neuronales mientras hacemos predicciones superponiendo mapas de calor en videos. Bonificación: escuchamos el motivador viaje personal de François Chollet , el creador de Keras, que ilustra el impacto que puede tener un solo individuo.
Capítulo 3 - Gatos versus perros: transferir el aprendizaje en 30 líneas con Keras | Leer en línea | Figuras
Utilizamos el aprendizaje por transferencia para reutilizar una red previamente entrenada en una nueva tarea de clasificación personalizada para obtener una precisión cercana a la última generación en cuestión de minutos. Luego cortamos y cortamos los resultados para comprender qué tan bien se clasifica. A lo largo del camino, construimos un canal común de aprendizaje automático, que se reutiliza a lo largo del libro. Bonificación: escuchamos a Jeremy Howard , cofundador de fast.ai, sobre cómo cientos de miles de estudiantes utilizan el aprendizaje por transferencia para impulsar su viaje hacia la IA.
Capítulo 4: Creación de un motor de búsqueda de imágenes inversas: comprensión de las incrustaciones | Leer en línea | Figuras
Al igual que la búsqueda inversa de imágenes de Google, exploramos cómo se pueden utilizar incrustaciones: una representación contextual de una imagen para encontrar imágenes similares en menos de diez líneas. Y luego, la diversión comienza cuando exploramos diferentes estrategias y algoritmos para acelerar esto a escala, de miles a varios millones de imágenes, y hacer que se puedan buscar en microsegundos.
Capítulo 5: De predictor principiante a maestro: maximizar la precisión de la red neuronal convolucional | Leer en línea | Figuras
Exploramos estrategias para maximizar la precisión que nuestro clasificador puede lograr, con la ayuda de una variedad de herramientas que incluyen TensorBoard, What-If Tool, tf-explain, TensorFlow Datasets, AutoKeras, AutoAugment. A lo largo del camino, llevamos a cabo experimentos para desarrollar una intuición de qué parámetros podrían o no funcionar para su tarea de IA.
Capítulo 6: Maximizar la velocidad y el rendimiento de TensorFlow: una lista de verificación útil | Leer en línea | Figuras
Llevamos la velocidad del entrenamiento y la inferencia al hiperimpulso mediante una lista de verificación de 30 trucos para reducir tantas ineficiencias como sea posible y maximizar el valor de su hardware actual.
Capítulo 7: Herramientas, consejos y trucos prácticos | Leer en línea | Figuras
Diversificamos nuestras habilidades prácticas en una variedad de temas y herramientas, que van desde la instalación, la recopilación de datos, la gestión de experimentos, las visualizaciones, el seguimiento de los últimos avances en la investigación hasta la exploración de nuevas vías para construir las bases teóricas. de aprendizaje profundo.
Capítulo 8: API en la nube para visión por computadora: en funcionamiento en 15 minutos | Leer en línea | Figuras
Trabaja inteligentemente, no duro. Utilizamos el poder de las plataformas de IA en la nube de Google, Microsoft, Amazon, IBM y Clarifai en menos de 15 minutos. Para las tareas que no se resuelven con las API existentes, utilizamos servicios de clasificación personalizados para entrenar clasificadores sin codificación. Y luego los enfrentamos entre sí en un punto de referencia abierto, te sorprenderá quién ganó.
Capítulo 9: Servicio de inferencia escalable en la nube con TensorFlow Serving y KubeFlow | Leer en línea | Figuras
Llevamos nuestro modelo entrenado personalizado a la nube/local para atender de manera escalable desde decenas hasta millones de solicitudes. Exploramos Flask, Google Cloud ML Engine, TensorFlow Serving y KubeFlow, mostrando el esfuerzo, el escenario y el análisis de costo-beneficio.
Capítulo 10: IA en el navegador con TensorFlow.js y ml5.js | Leer en línea | Figuras
Cada individuo que usa una computadora o un teléfono inteligente tiene acceso uniformemente a un programa de software: su navegador. Llegue a todos esos usuarios con bibliotecas de aprendizaje profundo basadas en navegador, incluidas TensorFlow.js y ml5.js. El autor invitado Zaid Alyafeai nos guía a través de técnicas y tareas como la estimación de la postura corporal, las redes generativas adversarias (GAN), la traducción de imagen a imagen con Pix2Pix y más, que no se ejecutan en un servidor sino en el propio navegador. Bonificación: escuche a los equipos de TensorFlow.js y ml5.js contar cómo se incubaron los proyectos.
Capítulo 11: Clasificación de objetos en tiempo real en iOS con Core ML | Leer en línea | Figuras
Exploramos el panorama del aprendizaje profundo en dispositivos móviles, con un especial enfoque en el ecosistema de Apple con Core ML. Comparamos modelos en diferentes iPhones, investigamos estrategias para reducir el tamaño de las aplicaciones y el impacto energético, implementamos modelos dinámicos, capacitamos en dispositivos y cómo se crean aplicaciones profesionales.
Capítulo 12: No Hotdog en iOS con Core ML y Create ML | Leer en línea | Figuras
La aplicación Not Hotdog de Silicon Valley (de HBO) se considera el “Hola mundo” de la IA móvil, por lo que le rendimos homenaje creando una versión en tiempo real no de una, ni de dos, sino de tres formas diferentes.
Capítulo 13: Shazam for Food: Desarrollo de aplicaciones para Android con TensorFlow Lite y ML Kit | Leer en línea | Figuras
Llevamos la IA a Android con la ayuda de TensorFlow Lite. Luego analizamos el desarrollo multiplataforma utilizando ML Kit (que está construido sobre TensorFlow Lite) y Fritz para explorar el ciclo de vida de desarrollo de un extremo a otro para crear una aplicación de IA con mejora automática. A lo largo del camino, analizamos el control de versiones de modelos, las pruebas A/B, la medición del éxito, las actualizaciones dinámicas, la optimización de modelos y otros temas. Bonificación: escuchamos sobre la rica experiencia de Pete Warden (líder técnico de TensorFlow móvil e integrado) en llevar la IA a los dispositivos de borde.
Capítulo 14: Creación de la aplicación Purrfect Cat Locator con la API de detección de objetos TensorFlow | Leer en línea | Figuras
Exploramos cuatro métodos diferentes para localizar la posición de objetos dentro de imágenes. Echamos un vistazo a la evolución de la detección de objetos a lo largo de los años y analizamos las compensaciones entre velocidad y precisión. Esto sienta las bases para estudios de casos como el conteo de multitudes, la detección de rostros y los automóviles autónomos.
Capítulo 15: Convertirse en un creador: explorar la IA integrada en el borde | Leer en línea | Figuras
El autor invitado Sam Sterckval lleva el aprendizaje profundo a dispositivos de bajo consumo mientras muestra una gama de dispositivos de borde con capacidad de IA con diferentes potencias de procesamiento y costos, incluidos Raspberry Pi, NVIDIA Jetson Nano, Google Coral, Intel Movidius, PYNQ-Z2 FPGA, abriendo el Puertas para proyectos de robótica y maker. Bonificación: escuche al equipo de NVIDIA Jetson Nano contar cómo las personas construyen rápidamente robots creativos a partir de su libro de recetas de código abierto.
Capítulo 16: Simulación de un automóvil autónomo utilizando el aprendizaje profundo de un extremo a otro con Keras | Leer en línea | Figuras
Utilizando el entorno de simulación fotorrealista de Microsoft AirSim, los autores invitados Aditya Sharma y Mitchell Spryn nos guían en el entrenamiento de un automóvil virtual conduciéndolo primero dentro del entorno y luego enseñando a un modelo de IA para replicar su comportamiento. A lo largo del camino, este capítulo cubre una serie de conceptos que son aplicables en la industria del automóvil autónomo.
Capítulo 17: Construcción de un automóvil autónomo en menos de una hora: aprendizaje reforzado con AWS DeepRacer | Leer en línea | Figuras
Pasando del mundo virtual al físico, el autor invitado Sunil Mallya muestra cómo AWS DeepRacer, un automóvil en miniatura, se puede ensamblar, entrenar y competir en menos de una hora. Y con la ayuda del aprendizaje reforzado, el coche aprende a conducir por sí solo, penalizando los errores y maximizando el éxito. Aprendemos cómo aplicar este conocimiento a carreras desde las Olimpíadas de conducción con IA hasta RoboRace (utilizando coches autónomos de tamaño completo). Bonificación: escuche a Anima Anandkumar (NVIDIA) y Chris Anderson (fundador de DIY Robocars) sobre hacia dónde se dirige la industria automotriz sin conductor.
Primero que nada, ¡bienvenido! ¡Nos alegra que haya decidido utilizar el libro y el código para aprender más sobre el aprendizaje profundo! Le deseamos lo mejor en su viaje hacia adelante. Aquí hay algunas cosas a tener en cuenta al usar el repositorio.
code
.Siga estas instrucciones para cargar el repositorio de GitHub en Google Colab. Tenga en cuenta que necesitará acceso a su propio Google Drive, ya que utilizaremos datos de un sistema local.
Usaremos un virtualenv
con el nombre de practicaldl
a lo largo del libro. Los requirements.txt
para este virtualenv
se encuentran en el directorio raíz. La ayuda y las instrucciones para instalar virtualenv
se encuentran en la sección Instalación del documento de preguntas frecuentes.
Presente un problema de acuerdo con CONTRIBUCIÓN y lo investigaremos.
@AnirudhKoul es un destacado experto en IA, orador de ONU/TEDx y ex científico de Microsoft AI & Research, donde fundó Seeing AI, a menudo considerada la tecnología más utilizada entre la comunidad de ciegos después del iPhone. Anirudh se desempeña como Jefe de Inteligencia Artificial e Investigación en Aira, reconocido por la revista Time como uno de los mejores inventos de 2018. Con funciones enviadas a mil millones de usuarios, aporta más de una década de experiencia en investigación aplicada orientada a la producción en conjuntos de datos a escala de PetaByte. Ha estado desarrollando tecnologías utilizando técnicas de IA para Realidad Aumentada, Robótica, Habla, Productividad y Accesibilidad. Su trabajo en el campo AI for Good, que el IEEE ha calificado de "cambiador de vidas", ha recibido premios de CES, FCC, MIT, Cannes Lions, American Council of the Blind, exhibidos en eventos de la ONU, el Foro Económico Mundial y la Casa Blanca. , House of Lords, Netflix, National Geographic y elogiado por líderes mundiales como Justin Trudeau y Theresa May.
@SiddhaGanju , un investigador de inteligencia artificial que Forbes incluyó en su lista de 30 menores de 30, es arquitecto autónomo en Nvidia. Como asesora de inteligencia artificial del FDL de la NASA, ayudó a construir un sistema automatizado de detección de meteoritos para el proyecto CAMS de la NASA, que terminó descubriendo un cometa. Anteriormente en Deep Vision, desarrolló modelos de aprendizaje profundo para dispositivos de borde con restricciones de recursos. Su trabajo abarca desde la respuesta visual a preguntas hasta redes generativas de confrontación y la recopilación de conocimientos a partir de datos a escala de petabytes del CERN y ha sido publicado en conferencias de primer nivel, incluidas CVPR y NeurIPS. Ha sido miembro destacado del jurado en varios concursos tecnológicos internacionales, incluido CES. Como defensora de la diversidad y la inclusión en la tecnología, habla en escuelas y universidades para motivar y hacer crecer una nueva generación de tecnologías de todos los orígenes.
@MeherKasam es un desarrollador de software experimentado con aplicaciones utilizadas por decenas de millones de usuarios todos los días. Actualmente es desarrollador de iOS en Square, y anteriormente trabajó en Microsoft y Amazon, ha incluido funciones para una variedad de aplicaciones desde el punto de venta de Square hasta la aplicación Bing para iPhone. Anteriormente, trabajó en Microsoft, donde fue líder de desarrollo móvil para la aplicación Seeing AI, que recibió amplio reconocimiento y premios del Mobile World Congress, CES, FCC y el American Council of the Blind, por nombrar algunos. Un hacker de corazón con talento para la creación rápida de prototipos, ganó varios hackatones y los convirtió en funciones incluidas en productos ampliamente utilizados. También se desempeña como juez de competencias internacionales, incluidos los Global Mobile Awards y los Edison Awards.
Cítenos si utiliza nuestro código.
@book{Koul2019PracticalDLBook,
title={Practical Deep Learning for Cloud, Mobile and Edge: Real-World AI and Computer Vision Projects Using Python, Keras and TensorFlow},
author={Koul, A. and Ganju, S. and Kasam, M.},
isbn={9781492034865},
url={https://www.oreilly.com/library/view/practical-deep-learning/9781492034858/},
year={2019},
publisher={O'Reilly Media, Incorporated}
}