Le matériel supplémentaire pour le livre Machine Learning Q and AI de Sebastian Raschka.
Veuillez utiliser les discussions pour toute question sur le livre !
Si vous avez acquis les bases de l'apprentissage automatique et de l'IA et que vous recherchez une façon amusante de combler les lacunes persistantes dans les connaissances, ce livre est fait pour vous. Cette série rapide de courts chapitres aborde 30 questions essentielles dans le domaine, vous aidant à rester au courant des dernières technologies que vous pouvez mettre en œuvre dans votre propre travail.
Chaque chapitre de Machine Learning Q and AI pose et répond à une question centrale, avec des diagrammes pour expliquer les nouveaux concepts et de nombreuses références pour une lecture plus approfondie.
Ce livre est une version entièrement éditée et révisée de Machine Learning Q and AI, disponible sur Leanpub.
« On pourrait difficilement rêver d'un meilleur guide que Sebastian, qui est, sans exagération, le meilleur éducateur en apprentissage automatique actuellement dans le domaine. Sur chaque page, Sebastian transmet non seulement ses connaissances approfondies, mais partage également la passion et la curiosité qui caractérisent une véritable expertise.
-- Chris Albon, directeur de l'apprentissage automatique, The Wikimedia Foundation
Titre | Lien URL | Code supplémentaire |
---|---|---|
1 | Intégrations, représentations et espace latent | |
2 | Apprentissage auto-supervisé | |
3 | Apprentissage en quelques coups | |
4 | L’hypothèse des billets de loterie | |
5 | Réduire le surapprentissage avec les données | |
6 | Réduire le surapprentissage grâce aux modifications du modèle | |
7 | Paradigmes de formation multi-GPU | |
8 | Les clés du succès des transformateurs | |
9 | Modèles d'IA génératifs | |
10 | Sources de hasard | échantillonnage de données.ipynb abandon.ipynb poids-aléatoires.ipynb |
PARTIE II : VISION PAR ORDINATEUR | ||
11 | Calcul du nombre de paramètres | conv-size.ipynb |
12 | L'équivalence des couches entièrement connectées et convolutives | fc-cnn-equivalence.ipynb |
13 | Grands ensembles de formation pour les transformateurs de vision | |
PARTIE III : TRAITEMENT DU LANGAGE NATUREL | ||
14 | L'hypothèse distributionnelle | |
15 | Augmentation des données pour le texte | traduction inverse.ipynb injection de bruit.ipynb phrase-order-shuffling.ipynb remplacement-de-synonyme.ipynb données-synthétiques.ipynb suppression de mots.ipynb échange de position de mot.ipynb |
16 | Attention à soi | |
17 | Transformateurs de style codeur et décodeur | |
18 | Utilisation et réglage fin des transformateurs pré-entraînés | |
19 | Évaluation des grands modèles de langage génératifs | BERTScore.ipynb bleu.ipynb perplexité.ipynb rouge.ipynb |
PARTIE IV : PRODUCTION ET DÉPLOIEMENT | ||
20 | Formation sans état et avec état | |
21 | IA centrée sur les données | |
22 | Accélérer l'inférence | |
23 | Changements de distribution des données | |
PARTIE V : PERFORMANCE PRÉDICTIVE ET ÉVALUATION DU MODÈLE | ||
24 | Poisson et régression ordinale | |
25 | Intervalles de confiance | quatre-méthodes.ipynb quatre-méthodes-vs-true-value.ipynb |
26 | Intervalles de confiance par rapport aux prédictions conformes | conformal_prediction.ipynb |
27 | Métriques appropriées | |
28 | Le K dans la validation croisée K-Fold | |
29 | Discordance des ensembles de formation et de test | |
30 | Données étiquetées limitées |