Os materiais suplementares para o livro Q and AI de aprendizado de máquina, de Sebastian Raschka.
Por favor, use as Discussões para qualquer dúvida sobre o livro!
Se você já conhece os fundamentos do aprendizado de máquina e da IA e deseja uma maneira divertida de resolver lacunas de conhecimento persistentes, este livro é para você. Esta rápida série de capítulos curtos aborda 30 questões essenciais na área, ajudando você a se manter atualizado sobre as tecnologias mais recentes que você pode implementar em seu próprio trabalho.
Cada capítulo de Machine Learning Q and AI pergunta e responde a uma pergunta central, com diagramas para explicar novos conceitos e amplas referências para leitura adicional
Este livro é uma versão totalmente editada e revisada de Machine Learning Q and AI, que estava disponível no Leanpub.
“Dificilmente se poderia pedir um guia melhor do que Sebastian, que é, sem exagero, o melhor educador de aprendizado de máquina atualmente na área. Em cada página, Sebastian não apenas transmite seu amplo conhecimento, mas também compartilha a paixão e a curiosidade que marcam a verdadeira experiência.”
-- Chris Albon, Diretor de Aprendizado de Máquina, Fundação Wikimedia
Título | Links URL | Código Suplementar |
---|---|---|
1 | Incorporações, Representações e Espaço Latente | |
2 | Aprendizagem Auto-Supervisionada | |
3 | Aprendizagem rápida | |
4 | A hipótese do bilhete de loteria | |
5 | Reduzindo o overfitting com dados | |
6 | Reduzindo o overfitting com modificações no modelo | |
7 | Paradigmas de treinamento multi-GPU | |
8 | As chaves para o sucesso dos transformadores | |
9 | Modelos generativos de IA | |
10 | Fontes de aleatoriedade | amostragem de dados.ipynb dropout.ipynb pesos aleatórios.ipynb |
PARTE II: VISÃO COMPUTADORIZADA | ||
11 | Calculando o número de parâmetros | tamanho da conversão.ipynb |
12 | A equivalência de camadas totalmente conectadas e convolucionais | fc-cnn-equivalência.ipynb |
13 | Grandes conjuntos de treinamento para transformadores de visão | |
PARTE III: PROCESSAMENTO DE LINGUAGEM NATURAL | ||
14 | A hipótese distributiva | |
15 | Aumento de dados para texto | tradução reversa.ipynb injeção de ruído.ipynb embaralhamento de ordem de frase.ipynb substituição de sinônimo.ipynb dados sintéticos.ipynb exclusão de palavra.ipynb troca de posição de palavra.ipynb |
16 | “Auto”-Atenção | |
17 | Transformadores estilo codificador e decodificador | |
18 | Usando e ajustando transformadores pré-treinados | |
19 | Avaliando modelos generativos de grandes linguagens | BERTScore.ipynb azul.ipynb perplexidade.ipynb rouge.ipynb |
PARTE IV: PRODUÇÃO E IMPLANTAÇÃO | ||
20 | Treinamento sem Estado e com Estado | |
21 | IA centrada em dados | |
22 | Acelerando a inferência | |
23 | Mudanças na distribuição de dados | |
PARTE V: DESEMPENHO PREDITIVO E AVALIAÇÃO DO MODELO | ||
24 | Poisson e regressão ordinal | |
25 | Intervalos de confiança | quatro métodos.ipynb quatro métodos versus valor verdadeiro.ipynb |
26 | Intervalos de confiança versus previsões conformes | conformal_prediction.ipynb |
27 | Métricas Adequadas | |
28 | O K na validação cruzada K-Fold | |
29 | Discordância do conjunto de treinamento e teste | |
30 | Dados rotulados limitados |