ML Notebooks
1.0.0
Este repositório contém notebooks de aprendizado de máquina para diferentes tarefas e aplicativos. Os notebooks devem ser mínimos, facilmente reutilizáveis e extensíveis. Você é livre para usá-los para fins educacionais e de pesquisa.
Este repositório suporta Codespaces!
"<> Code"
seguido da opção "Configure and create codespace"
. Certifique-se de selecionar a configuração do contêiner de desenvolvimento fornecida com este repositório. Isso configura um ambiente com todas as dependências instaladas e prontas para uso./notebooks
. Abra um terminal e simplesmente execute conda create --name myenv --file spec-file.txt
para instalar todas as bibliotecas Python, incluindo PyTorch.conda activate myenv
. Pode ser necessário executar conda init zsh
ou qualquer shell que você esteja usando... e depois fechar + reabrir o terminal./notebooks/bow.ipynb
. Nome | Descrição | Caderno |
---|---|---|
Introdução aos Gráficos Computacionais | Um tutorial básico para aprender sobre gráficos computacionais | |
PyTorch Olá mundo! | Construa uma rede neural simples e treine-a | |
Uma introdução suave ao PyTorch | Uma explicação detalhada apresentando os conceitos do PyTorch | |
Explicações contrafactuais | Um tutorial básico para aprender sobre explicações contrafactuais para IA explicável | |
Regressão Linear do Zero | Uma implementação de regressão linear do zero usando descida gradiente estocástica | |
Regressão Logística do Zero | Uma implementação de regressão logística do zero | |
Regressão Logística Concisa | Implementação concisa de modelo de regressão logística para classificação de imagens binárias. | |
Primeira Rede Neural - Classificador de Imagens | Construa um classificador de imagem mínimo usando MNIST | |
Rede Neural do zero | Uma implementação de rede neural simples do zero | |
Introdução às GNNs | Introdução às redes neurais de grafos. Aplica GCN básico ao conjunto de dados Cora para classificação de nós. |
Nome | Descrição | Caderno |
---|---|---|
Classificador de texto Bag of Words | Construa um classificador de texto simples de saco de palavras. | |
Classificador de texto Continuous Bag of Words (CBOW) | Construa um classificador de texto contínuo de saco de palavras. | |
Classificador de texto Deep Continuous Bag of Words (Deep CBOW) | Construa um classificador de texto profundo e contínuo de palavras. | |
Aumento de dados de texto | Uma introdução às técnicas de aumento de dados mais comumente usadas para texto e sua implementação | |
Classificação de emoções com BERT ajustado | Classificação de emoções usando modelo BERT ajustado |
Nome | Descrição | Caderno |
---|---|---|
Classificação de texto usando Transformer | Uma implementação de mecanismo de atenção e incorporações posicionais em uma tarefa de classificação de texto | |
Tradução automática neural usando Transformer | Uma implementação do Transformer para traduzir datas legíveis por humanos em qualquer formato para o formato AAAA-MM-DD. | |
Transformador de tokenizador de recursos | Uma implementação do Feature Tokenizer Transformer em uma tarefa de classificação | |
Reconhecimento de entidade nomeada usando Transformer | Uma implementação do Transformer para realizar classificação de tokens e identificar espécies em resumos do PubMed | |
Resposta extrativa a perguntas usando Transformer | Uma implementação do Transformer para realizar respostas extrativas a perguntas |
Nome | Descrição | Caderno |
---|---|---|
Rede Siamesa | Uma implementação da Rede Siamesa para encontrar similaridade de imagens | |
Codificador Automático Variacional | Uma implementação do codificador automático variacional para gerar aumentos para dígitos manuscritos MNIST | |
Detecção de objetos usando janela deslizante e pirâmide de imagens | Uma implementação básica de detecção de objetos usando janela deslizante e pirâmide de imagens no topo de um classificador de imagens | |
Detecção de objetos usando pesquisa seletiva | Uma implementação básica de detecção de objetos usando pesquisa seletiva sobre um classificador de imagens |
Nome | Descrição | Caderno |
---|---|---|
GAN convolucional profundo | Uma implementação de Deep Convolutional GAN para gerar dígitos MNIST | |
Wasserstein GAN com penalidade de gradiente | Uma implementação de Wasserstein GAN com Gradient Penalty para gerar dígitos MNIST | |
GAN condicional | Uma implementação de GAN condicional para gerar dígitos MNIST |
Nome | Descrição | Caderno |
---|---|---|
LoRA BERT | Uma implementação de BERT Finetuning usando LoRA | |
LoRA BERT NER | Uma implementação de BERT Finetuning usando LoRA para tarefa de classificação de token | |
LoRA T5 | Uma implementação de ajuste fino T5 usando LoRA | |
LoRA TinyLlama 1.1B | Uma implementação de ajuste fino do TinyLlama 1.1B usando LoRA | |
QLoRA TinyLlama 1.1B | Uma implementação de ajuste fino do TinyLlama 1.1B usando QLoRA | |
QLoRA Mistral 7B | Uma implementação de ajuste fino Mistral 7B usando QLoRA |
Se você encontrar algum bug ou tiver alguma dúvida sobre esses notebooks, abra um problema. Iremos resolver isso assim que pudermos.
Entre em contato pelo Twitter se tiver alguma dúvida.
Cite o seguinte se você usar os exemplos de código em sua pesquisa:
@misc{saravia2022ml,
title={ML Notebooks},
author={Saravia, Elvis and Rastogi, Ritvik},
journal={https://github.com/dair-ai/ML-Notebooks},
year={2022}
}