Los materiales complementarios para el libro Machine Learning Q and AI de Sebastian Raschka.
¡Utilice las Discusiones si tiene alguna pregunta sobre el libro!
Si ha dominado los conceptos básicos del aprendizaje automático y la IA y desea una forma divertida de abordar las lagunas de conocimiento persistentes, este libro es para usted. Esta rápida serie de capítulos breves aborda 30 preguntas esenciales en el campo, ayudándole a mantenerse actualizado sobre las últimas tecnologías que puede implementar en su propio trabajo.
Cada capítulo de Machine Learning Q and AI plantea y responde una pregunta central, con diagramas para explicar nuevos conceptos y amplias referencias para lecturas adicionales.
Este libro es una versión completamente editada y revisada de Machine Learning Q and AI, que estaba disponible en Leanpub.
“Difícilmente se podría pedir un mejor guía que Sebastian, quien es, sin exagerar, el mejor educador en aprendizaje automático actualmente en el campo. En cada página, Sebastian no sólo imparte su amplio conocimiento sino que también comparte la pasión y la curiosidad que caracterizan la verdadera experiencia”.
-- Chris Albon, Director de Aprendizaje Automático, Fundación Wikimedia
Título | Enlace URL | Código suplementario |
---|---|---|
1 | Incrustaciones, representaciones y espacio latente | |
2 | Aprendizaje autosupervisado | |
3 | Aprendizaje en pocas oportunidades | |
4 | La hipótesis del billete de lotería | |
5 | Reducir el sobreajuste de datos | |
6 | Reducir el sobreajuste con modificaciones del modelo | |
7 | Paradigmas de entrenamiento multi-GPU | |
8 | Las claves del éxito de los transformadores | |
9 | Modelos de IA generativa | |
10 | Fuentes de aleatoriedad | muestreo-de-datos.ipynb abandono.ipynb pesos-aleatorios.ipynb |
PARTE II: VISIÓN POR COMPUTADORA | ||
11 | Calcular el número de parámetros | tamaño-conv.ipynb |
12 | La equivalencia de capas totalmente conectadas y convolucionales | fc-cnn-equivalencia.ipynb |
13 | Grandes conjuntos de entrenamiento para transformadores de visión | |
PARTE III: PROCESAMIENTO DEL LENGUAJE NATURAL | ||
14 | La hipótesis distributiva | |
15 | Aumento de datos para texto | traducción inversa.ipynb inyección-de-ruido.ipynb orden-barajado-de-las-oraciones.ipynb sinónimo-replacement.ipynb datos-sintéticos.ipynb eliminación de palabras.ipynb intercambio-de-posición-de-palabras.ipynb |
16 | “Auto”-Atención | |
17 | Transformadores estilo codificador y decodificador | |
18 | Uso y ajuste de transformadores previamente entrenados | |
19 | Evaluación de modelos de lenguaje generativo grande | BERTScore.ipynb azul.ipynb perplejidad.ipynb rouge.ipynb |
PARTE IV: PRODUCCIÓN Y DESPLIEGUE | ||
20 | Entrenamiento sin estado y con estado | |
21 | IA centrada en datos | |
22 | Acelerar la inferencia | |
23 | Turnos de distribución de datos | |
PARTE V: DESEMPEÑO PREDICTIVO Y EVALUACIÓN DEL MODELO | ||
24 | Poisson y regresión ordinal | |
25 | Intervalos de confianza | cuatro-métodos.ipynb cuatro-métodos-vs-valor-verdadero.ipynb |
26 | Intervalos de confianza versus predicciones conformes | predicción_conformal.ipynb |
27 | Métricas adecuadas | |
28 | La K en la validación cruzada de K-Fold | |
29 | Discordancia del conjunto de entrenamiento y prueba | |
30 | Datos etiquetados limitados |