ML Notebooks
1.0.0
Este repositorio contiene cuadernos de aprendizaje automático para diferentes tareas y aplicaciones. Los cuadernos deben ser mínimos, fácilmente reutilizables y ampliables. Eres libre de utilizarlos con fines educativos y de investigación.
¡Este repositorio es compatible con Codespaces!
"<> Code"
seguido de la opción "Configure and create codespace"
. Asegúrese de seleccionar la configuración del contenedor de desarrollo proporcionada con este repositorio. Esto configura un entorno con todas las dependencias instaladas y listas para funcionar./notebooks
. Abra una terminal y simplemente ejecute conda create --name myenv --file spec-file.txt
para instalar todas las bibliotecas de Python, incluido PyTorch.conda activate myenv
. Es posible que necesites ejecutar conda init zsh
o cualquier shell que estés usando... y luego cerrar y volver a abrir la terminal./notebooks/bow.ipynb
. Nombre | Descripción | Computadora portátil |
---|---|---|
Introducción a los gráficos computacionales | Un tutorial básico para aprender sobre gráficos computacionales. | |
PyTorch ¡Hola mundo! | Construya una red neuronal simple y entrénela | |
Una suave introducción a PyTorch | Una explicación detallada que presenta los conceptos de PyTorch. | |
Explicaciones contrafácticas | Un tutorial básico para aprender sobre explicaciones contrafactuales para una IA explicable | |
Regresión lineal desde cero | Una implementación de regresión lineal desde cero utilizando descenso de gradiente estocástico | |
Regresión logística desde cero | Una implementación de regresión logística desde cero. | |
Regresión logística concisa | Implementación concisa del modelo de regresión logística para la clasificación de imágenes binarias. | |
Primera red neuronal: clasificador de imágenes | Construya un clasificador de imágenes mínimo usando MNIST | |
Red neuronal desde cero | Una implementación de una red neuronal simple desde cero. | |
Introducción a las GNN | Introducción a las redes neuronales gráficas. Aplica GCN básico al conjunto de datos de Cora para la clasificación de nodos. |
Nombre | Descripción | Computadora portátil |
---|---|---|
Clasificador de texto de bolsa de palabras | Cree un clasificador de texto simple de bolsa de palabras. | |
Clasificador de texto de bolsa continua de palabras (CBOW) | Cree un clasificador de texto de bolsa continua de palabras. | |
Clasificador de texto de bolsa de palabras continua profunda (CBOW profundo) | Cree un clasificador de texto de bolsa de palabras continuo y profundo. | |
Aumento de datos de texto | Una introducción a las técnicas de aumento de datos más utilizadas para texto y su implementación. | |
Clasificación de emociones con BERT ajustado | Clasificación de emociones utilizando el modelo BERT ajustado |
Nombre | Descripción | Computadora portátil |
---|---|---|
Clasificación de texto usando Transformer | Una implementación del mecanismo de atención e incrustaciones posicionales en una tarea de clasificación de texto | |
Traducción automática neuronal mediante Transformer | Una implementación de Transformer para traducir fechas legibles por humanos en cualquier formato al formato AAAA-MM-DD. | |
Transformador tokenizador de funciones | Una implementación de Feature Tokenizer Transformer en una tarea de clasificación | |
Reconocimiento de entidades nombradas usando Transformer | Una implementación de Transformer para realizar clasificación de tokens e identificar especies en resúmenes de PubMed | |
Respuesta a preguntas extractivas usando Transformer | Una implementación de Transformer para realizar respuestas extractivas a preguntas. |
Nombre | Descripción | Computadora portátil |
---|---|---|
Red siamesa | Una implementación de Siamese Network para encontrar similitudes de imágenes | |
Codificador automático variacional | Una implementación de Variational Auto Encoder para generar aumentos para dígitos escritos a mano MNIST | |
Detección de objetos mediante ventana deslizante y pirámide de imágenes | Una implementación básica de detección de objetos utilizando una ventana deslizante y una pirámide de imágenes encima de un clasificador de imágenes. | |
Detección de objetos mediante búsqueda selectiva | Una implementación básica de detección de objetos que utiliza búsqueda selectiva sobre un clasificador de imágenes. |
Nombre | Descripción | Computadora portátil |
---|---|---|
GAN convolucional profunda | Una implementación de GAN convolucional profunda para generar dígitos MNIST | |
Wasserstein GAN con penalización de gradiente | Una implementación de Wasserstein GAN con penalización de gradiente para generar dígitos MNIST | |
GAN condicional | Una implementación de GAN condicional para generar dígitos MNIST |
Nombre | Descripción | Computadora portátil |
---|---|---|
lora bert | Una implementación de BERT Finetuning usando LoRA | |
LoRA BERT NER | Una implementación de BERT Finetuning usando LoRA para la tarea de clasificación de tokens | |
LORA T5 | Una implementación de T5 Finetuning usando LoRA | |
LoRA TinyLlama 1.1B | Una implementación de TinyLlama 1.1B Finetuning usando LoRA | |
QLoRA TinyLlama 1.1B | Una implementación de TinyLlama 1.1B Finetuning usando QLoRA | |
QLoRA Mistral 7B | Una implementación de Mistral 7B Finetuning usando QLoRA |
Si encuentra algún error o tiene alguna pregunta sobre estos cuadernos, abra un problema. Lo abordaremos tan pronto como podamos.
Comuníquese con Twitter si tiene alguna pregunta.
Cite lo siguiente si utiliza los ejemplos de código en su investigación:
@misc{saravia2022ml,
title={ML Notebooks},
author={Saravia, Elvis and Rastogi, Ritvik},
journal={https://github.com/dair-ai/ML-Notebooks},
year={2022}
}