Créé par Tang Yudi
L'intention initiale de l'organisation de ce projet est de permettre aux étudiants de démarrer rapidement le plan d'auto-apprentissage en intelligence artificielle, d'éviter les détours dans le processus d'apprentissage, de se lancer le plus rapidement possible dans l'IA et de démarrer des projets pratiques. Il propose près de 200 cas pratiques d'IA . et projets . Ceux-ci ne sont pas en ligne. Ce que j'ai collecté sont des cas développés et accumulés par moi au cours des cinq dernières années d'enseignement en ligne et hors ligne. On peut dire qu'ils ont été mis à jour à plusieurs reprises et de manière itérative et qu'ils permettent aux étudiants d'apprendre et de pratiquer étape par étape. Étudiants qui viennent ici, n'oubliez pas de cliquer sur une étoile pour la sauvegarder !
Fin 2019, j'ai publié le manuel de support pour le cours d'apprentissage automatique "Apprendre l'analyse des données Python et la pratique de l'apprentissage automatique avec Diego". Le style est toujours facile à comprendre. Il a fallu deux ans et plus de dix révisions pour enfin vous rencontrer. . Afin de permettre à davantage d'étudiants de démarrer rapidement leur plan d'études, j'ai décidé de vous offrir gratuitement la version électronique de ce livre . J'espère que cela pourra apporter des gains d'apprentissage à tout le monde ! Vous pouvez télécharger la version PDF sur la page d'accueil de ce projet. Si vous aimez le matériel pédagogique, vous pouvez également les acheter sur JD.com.
"Apprenez l'analyse de données Python et la pratique de l'apprentissage automatique avec Diego" Téléchargement original du PDF :
(Lien du disque réseau : https://pan.baidu.com/s/19wzJeyPmwTBDp9ASEWBvFQ Code d'extraction : tece )
Le catalogue suivant constitue le parcours d'apprentissage. Il est conseillé aux débutants d'étudier dans l'ordre indiqué dans le catalogue. Les étudiants qui ont déjà commencé peuvent choisir selon leurs propres préférences.
Les données impliquées dans l'affaire sont toutes des ensembles de données réels, et certains seront assez volumineux. Les télécharger directement sur github sera très lent à télécharger pour tout le monde. Je téléchargerai progressivement les liens du disque réseau de chaque module, qui incluent les données et le code. , PPT et autres ressources d'apprentissage. Si vous avez besoin d'une explication vidéo à l'appui, veuillez ajouter WeChat : digexiaozhushou (Pinyin du petit assistant de Di Ge)
Si vous rencontrez des problèmes de coopération, de communication ou de projet sous divers aspects, vous pouvez directement ajouter WeChat : digexiaozhushou (Pinyin de Dige Assistant)
Pour apprendre l’intelligence artificielle (data science), il faut quand même quelques compétences de base. Les plus basiques et essentielles sont Python et les mathématiques ! Ce n'est pas difficile pour ces deux frères de se lancer, c'est bien de maîtriser d'abord les bases et d'apprendre en les utilisant !
Si vous n'êtes pas familier avec Python, je vous propose de regarder mon cours vidéo d'introduction à Python pour vous lancer rapidement ! portail
L’explication la plus directe est que tout le monde l’utilise ! Auparavant, il s'agissait de programmation orientée objet, mais plus tard, les gens ont préféré la programmation par copier-coller, et maintenant ils sont trop paresseux pour programmer pour GitHub. C'est vrai, il faut être paresseux quand on devrait l'être, et Python le fait. ! Tous les contenus pratiques ultérieurs seront basés sur Python, vous n’avez donc pas le choix !
Anaconda suffit ! Anaconda suffit ! Anaconda suffit ! D'accord, je l'ai dit trois fois. Pour une explication détaillée, reportez-vous simplement au cours du portail ci-dessus.
La boîte à outils signifie que d'autres ont écrit toutes les fonctions, et on peut l'appeler directement et c'est tout ! Il existe des kits d'outils correspondants pour le traitement des données, l'analyse, la modélisation, etc. Pour apprendre, il n'est pas nécessaire de mémoriser ces kits d'outils, vous devez d'abord vous familiariser avec eux, et vous devrez certainement les utiliser et les vérifier plus tard.
Nom de la boîte à outils | Aperçu des fonctions |
---|---|
Numpy | Un incontournable pour les calculs matriciels ! Il constitue le cœur de tous les calculs ultérieurs et la boîte à outils de base dans le domaine de la science des données. |
Pandas | Un incontournable pour le traitement des données ! La lecture des données, le traitement des données et l'analyse des données doivent être effectués par lui ! |
Matplotlib | La visualisation est indispensable ! La fonction est très puissante. Il n'y a aucune image qui ne puisse être dessinée. L'analyse et l'affichage en dépendent ! |
Né de la mer | Un outil de visualisation plus simple ! Une ligne de code vous donne un affichage visuel des résultats |
Les étudiants doivent être très conscients de l'importance des mathématiques, en particulier dans le domaine de l'intelligence artificielle (science des données). Il est difficile de faire quoi que ce soit sans connaître les mathématiques. De nombreux étudiants m'ont posé la question suivante : tant de mathématiques peuvent-elles être réellement utilisées dans le travail ? ? Laissez-moi vous expliquer que l'industrie de l'intelligence artificielle se développe très rapidement. Dans le travail réel, vous devez apprendre en le faisant. Que devriez-vous apprendre ? Il doit s'agir d'articles parmi les plus remarquables actuellement. Si vous ne comprenez même pas les formules mathématiques de base, il n'est pas nécessaire de parler de technologie haut de gamme. Les étudiants dans ce domaine auront certainement cette idée. La soi-disant intelligence artificielle fait simplement divers calculs mathématiques sur des données !
Je ne pense pas qu'il soit nécessaire de repartir de zéro et de passer beaucoup de temps à apprendre étape par étape. Par exemple, mes collègues et amis et moi faisons cela depuis longtemps, je ne sais pas combien de fois je l'ai fait. J'ai étudié les mathématiques. J'ai parfois résolu d'innombrables questions, mais je rencontrerai également ce problème. De nombreux points de connaissance seront rapidement oubliés si je ne les ai pas examinés pendant un certain temps. L'une des choses que je fais le plus souvent est de rechercher tout ce que j'utilise. Le processus de recherche est en fait un processus d'apprentissage et de progrès. Il est recommandé de passer rapidement en revue les points de connaissances communs (mathématiques avancées, linéarité, bases de la théorie des probabilités). Au cours de ce processus, vous n'avez pas besoin d'examiner divers processus de résolution de problèmes et vous n'avez pas non plus à vous soucier des méthodes de résolution spécifiques. pour le dire franchement, il suffit de comprendre ce que fait une formule et à quoi elle sert. Semblable aux exercices du manuel et aux solutions du cahier d'exercices, vous n'en aurez pas besoin à l'avenir. un stylo pour calculer ces choses gênantes. Gagnez du temps pour étudier. Les algorithmes sont plus rentables !
Points de connaissance | contenu | effet |
---|---|---|
Mathématiques avancées | Bases de mathématiques avancées, calcul, formule de Taylor et Lagrange, | Indispensable pour dériver des formules d'apprentissage automatique |
algèbre linéaire | Bases de l'algèbre linéaire, des valeurs propres et de la décomposition matricielle, | Nécessaire pour la solution algorithmique |
théorie des probabilités | Bases de la théorie des probabilités, variables aléatoires et estimation de probabilité, distributions couramment utilisées | L'apprentissage automatique mentionne souvent ces mots |
Analyse statistique | Analyse de régression, tests d'hypothèses, analyse de corrélation, analyse de variance | Indispensable pour l'analyse des données |
Le cœur du domaine de l’intelligence artificielle est l’apprentissage automatique. Quelle que soit la direction que vous souhaitez poursuivre à l’avenir, vous devez commencer par l’apprentissage automatique ! Il y a deux choses principales : la première est de maîtriser les principes des algorithmes classiques, et la seconde est de maîtriser l'utilisation de la boîte à outils Python pour une modélisation pratique !
Que faut-il apprendre sur les algorithmes ? Comprendre comment les algorithmes d'apprentissage automatique opèrent sur les données pour compléter le processus de modélisation et de solution. Pour parler franchement, cela signifie se familiariser avec la façon dont les mathématiques sont utilisées dans les algorithmes. L'important est de comprendre ! Ne vous attardez pas indéfiniment sur un problème, c'est une perte de temps et vous pourrez peut-être le résoudre en un rien de temps au cours du processus d'apprentissage ultérieur. Je pense qu'il faut étudier les algorithmes plus d'une fois, surtout pour les étudiants qui se préparent à des entretiens d'embauche. Il est normal d'étudier l'algorithme deux ou trois fois (un camarade de classe m'a dit un jour qu'il avait étudié le cours au total 6 fois avant l'entretien). )
Avec le deep learning, le machine learning est-il encore nécessaire ?
L'apprentissage profond peut être considéré comme un type d'algorithme d'apprentissage automatique. Cela ne signifie pas que d'autres algorithmes classiques ne sont pas nécessaires avec les réseaux de neurones. L'algorithme le plus approprié doit être sélectionné en fonction de différentes tâches et données. l'apprentissage automatique. En fait, il est vraiment facile d'observer les réseaux de neurones après avoir maîtrisé ces algorithmes classiques !
Points de connaissances | contenu | Aperçu |
---|---|---|
Algorithme de classification | Régression logistique, arbre de décision, machine à vecteurs de support, algorithme d'ensemble, algorithme bayésien | Les étudiants qui se préparent aux entretiens doivent maîtriser |
Algorithme de régression | Régression linéaire, arbres de décision, algorithmes d'ensemble | Certains algorithmes peuvent effectuer à la fois une classification et une régression |
Algorithme de clustering | k-means, dbscan, etc. | Le non-supervisé n’est considéré que lorsqu’il n’y a vraiment pas de label. |
Algorithme de réduction de dimensionnalité | Analyse en composantes principales, analyse discriminante linéaire, etc. | Concentrez-vous sur la compréhension de l'idée de réduction de dimensionnalité |
Algorithmes avancés | Algorithme de boosting GBDT, lightgbm, algorithme EM, modèle de Markov caché | Les étudiants qui ont du temps et de l’énergie peuvent défier des algorithmes avancés |
Analysez l'impact des méthodes et des paramètres de modélisation d'algorithmes classiques sur les résultats grâce à des expériences comparatives, et comprenez les paramètres et les exemples d'application des algorithmes grâce à des expériences et des affichages visuels.
Nom du cas | Aperçu du contenu |
---|---|
Analyse expérimentale de régression linéaire | Maîtriser la régression linéaire univariée et multiple, les méthodes de régression non linéaire et le rôle de la pénalité de régularisation |
Méthode d'évaluation du modèle | Comparaison des méthodes d'évaluation des algorithmes de classification et de régression couramment utilisées, exemples de segmentation d'ensembles de données |
Analyse expérimentale de régression logistique | Méthode de construction du modèle de classification classique, méthode de dessin des limites de l'arbre de décision |
Analyse expérimentale de l'algorithme de clustering | Exemples de modélisation non supervisée, méthodes d'évaluation d'algorithmes de clustering, exemples de rôles et d'applications non supervisés |
Analyse expérimentale de l'arbre de décision | Exemples de visualisation de modèles d'arbres et méthodes de construction, applications de classification et de régression de modèles d'arbres |
Analyse expérimentale d'algorithme intégré | Exemples d'application et analyse des effets des méthodes d'intégration, comparaison des stratégies d'intégration courantes |
Prise en charge de l'analyse expérimentale de machines vectorielles | SVM implique des expériences de comparaison de paramètres et de modélisation |
Analyse pratique des règles d'association | Points de connaissances essentiels et exemples d'analyse de modélisation de règles d'association |
Afin de mieux comprendre le mécanisme de l'algorithme, nous reproduisons l'algorithme classique à partir de zéro, adhérons au principe d'absence de perte de paquets et complétons étape par étape tous les modules requis par l'algorithme.
L'objectif principal est de mieux comprendre le principe de fonctionnement de l'algorithme, et l'accent est mis sur la pratique ! Les étudiants qui ont le temps peuvent le reproduire eux-mêmes, mais les étudiants qui manquent de temps ne sont pas obligés de le faire eux-mêmes.
Nom du cas | Aperçu du contenu |
---|---|
Implémentation du code de régression linéaire | Fonctions couramment utilisées des algorithmes de création de modules |
Implémentation du code de régression logistique | Exemple d'interprétation de la méthode de mise en œuvre de la régression logistique |
Implémentation du code Kmeans | Algorithme non supervisé très simple et facile à comprendre |
Implémentation du code de l'arbre de décision | Le modèle arborescent est en fait une implémentation récursive |
Implémentation du code du réseau neuronal | La quantité de code est légèrement importante, il est donc recommandé d'apprendre le mode débogage. |
Implémentation du code bayésien | Bayes est encore plus facile à expliquer dans les tâches textuelles |
Implémentation du code de règle d'association | Algorithmes d'analyse de données couramment utilisés |
Créer un système de recommandation musicale | Construire un modèle de système de recommandation à partir de zéro |
En combat réel, les points de connaissances mathématiques peuvent être affaiblis, car la plupart du temps nous utilisons des kits d'outils prêts à l'emploi pour accomplir des tâches (package transfer man). Il existe de nombreuses fonctions d'économie d'énergie que tout le monde doit maîtriser ici. La première consiste à maîtriser l'utilisation de ces boîtes à outils courantes. Le prétraitement des données, l'ingénierie des fonctionnalités, l'ajustement des paramètres et la vérification sont toutes des étapes essentielles. En résumé, les processus et routines nécessaires pour accomplir différentes tâches sont similaires, mais les méthodes et algorithmes utilisés peuvent être différents, ce qui nécessite que chacun accumule continuellement pour enrichir l'expérience pratique. Ces cas fournis aux étudiants peuvent être utilisés comme leurs propres modèles pratiques !
Le plus important est d'apprendre à prétraiter et analyser différentes données (valeurs numériques, texte, images), à appliquer habilement les principales fonctions de base de la boîte à outils pour participer au prétraitement, à proposer plusieurs solutions pour différentes tâches et à mener une analyse expérimentale. En résumé, faites plus d'expériences et effectuez plus de travail pratique. Plus vous écrivez de code, plus vous deviendrez compétent !
Nom du cas | Aperçu du contenu |
---|---|
Algorithme du plus proche voisin en pratique | Cas introductif du Machine Learning, maîtrise de la boîte à outils appliquée aux méthodes de modélisation |
Détection des anomalies des données de transaction | Analyse et comparaison très importantes et détaillées des stratégies de traitement des données et de modélisation |
Pratique de modélisation d'algorithmes intégrés | Je n’ai pas besoin d’en dire plus sur l’intégration, c’est une stratégie fondamentale incontournable. |
Prédiction de température basée sur une forêt aléatoire | La forêt aléatoire est l'algorithme le plus couramment utilisé dans l'apprentissage automatique. Analyse et comparaison détaillées. |
Pratique de classification des actualités | Analyse et traitement de données textuelles et modélisation pratique basée sur l'algorithme bayésien |
Analyse des pratiques de clustering | Exemples d'applications non supervisées |
analyse de séries chronologiques | Méthode de production de données de séries temporelles, modélisation basée sur des données de séquence |
Avertissement de désabonnement des utilisateurs | Je dis souvent que les utilisateurs de Fantasy Westward Journey perdent, ce n'est qu'une DÉMO |
Utilisez lightgbm pour la prévision du trafic des hôtels | Un autre gros tueur, encore pire que xgboost |
Projet d'ensemble de données de recensement Pratique-Prévisions de revenus | Les modèles de base, l'analyse des données, la visualisation, etc. sont tous là. |
L'optimisation bayésienne en pratique | Exemples d'utilisation plus difficiles de la boîte à outils d'optimisation bayésienne |
Comparaison des méthodes de fonctionnalités de texte | Comparaison des méthodes d'extraction de caractéristiques couramment utilisées pour les données textuelles |
Créez votre propre trousse à outils | Fabriquez votre propre sac pour vous amuser |
Nom du cas | Aperçu du contenu |
---|---|
Règles pratiques d'association Python | Il est si simple d'utiliser la boîte à outils pour créer des règles d'association |
Analyse et modélisation des ensembles de données Airbnb | Exemples d'analyse et de modélisation d'ensembles de données sur les prix du logement |
Système de recommandation d'hôtels basé sur la similarité | Construire un système de recommandation pour compléter les recommandations d’hôtels |
Analyse de régression des ventes de produits | La prévision des ventes, une tâche très courante, peut être réalisée avec des méthodes de routine |
Analyse et modélisation de l'exploration des ensembles de données PUBG | Ensemble de données Battlegrounds de PlayerUnknown, voyons qui vous a tué |
Méthode d'interprétation du modèle en pratique | Comment interpréter le modèle après modélisation ? Ces boîtes à outils peuvent vous aider à le faire. |
Boîte à outils essentielle pour le traitement du langage naturel en pratique | Interprétation des boîtes à outils PNL courantes et exemples pratiques |
Prévisions de probabilité de remboursement des clients de la banque | Données clients bancaires pour prédire la probabilité de remboursement |
Pratique d'analyse de cluster de caractéristiques d'image | Comment regrouper les données d'image ? |
Projet d'ensemble de données de recensement Pratique-Prévision des revenus | Les modèles de base, l'analyse des données, la visualisation, etc. sont tous là. |
Tout le monde entend le mot analyse de données tous les jours, mais que devons-nous faire ? Il ne s'agit rien de plus que d'obtenir des informations précieuses à partir de données, et il existe encore de nombreuses méthodes et routines. Cette direction ne nécessite aucune accumulation théorique, utilisez simplement les données et faites-le ! L’accumulation de cas est le processus d’apprentissage !
En termes simples, le data mining est l’application d’algorithmes d’apprentissage automatique à des quantités massives de données pour obtenir les résultats souhaités. L'accent dans l'exploration de données n'est pas le choix de l'algorithme d'apprentissage automatique, mais la manière de traiter les données pour obtenir de meilleurs résultats de prédiction. Ici, l'ingénierie et le prétraitement des fonctionnalités deviendront la solution principale.
Nom du cas | Aperçu du contenu |
---|---|
Prédictions de sauvetage du Titanic | Cas de compétition Kaggle classique, le premier projet pratique pour l'exploration de données d'entrée de gamme |
Construction de fonctionnalités de données | L'ingénierie des fonctionnalités est au cœur de l'exploration de données. Sur la base de Sklearn, diverses méthodes de construction de fonctionnalités sont expliquées. |
Pratique du portrait utilisateur | Tout le monde doit avoir entendu parler des portraits d'utilisateurs. Comment appliquer les données pour compléter le portrait ? |
Exemple de stratégie d'intégration | Dans l'exploration de données, les stratégies d'intégration sont généralement choisies pour mieux améliorer l'effet. |
Combat réel Xgboost | Un représentant type en intégration et une arme fatale dans la concurrence |
Prévisions d'intention d'achat JD.com | Problème de prédiction classique, effectuer des tâches de prédiction basées sur les données de comportement historiques des utilisateurs |
Enquête sur la science des données Kaggle | Afficher visuellement les participants au concours Kaggle |
prévision du prix de l'immobilier | Cas d’entrée de gamme en data mining pour maîtriser rapidement les routines |
Analyse des utilisateurs sensibles à la puissance | Exemples de compétition, expliquant principalement le rôle de l'ingénierie des fonctionnalités |
prédiction de séries chronologiques fbprophet | Un algorithme très pratique de prévision de séries temporelles, très simple à utiliser |
Nous avons sélectionné des cas de concours à grande échelle tels que Tianchi, Kaggle et Rongji pour tout le monde, et les codes et solutions fournis sont les idées de solutions des gagnants lors du concours. Tout comme si vous voulez apprendre à jouer aux échecs, vous devez jouer avec les meilleurs joueurs pour vous améliorer. Chaque cas expliquera les idées du gagnant et la solution globale et fournira l'implémentation du code. Très utile pour que tout le monde s'améliore !
Nom du cas | Aperçu du contenu |
---|---|
Analyse de l'activité des utilisateurs de la courte vidéo de Kuaishou | Prédire la prochaine activité en fonction des données de comportement des utilisateurs |
Prévisions de production chimique industrielle | Analyser les données et les modèles de l'industrie chimique pour prédire l'efficacité de la production |
Prédiction intelligente du temps de trajet ville-route | Une compétition très terre-à-terre, prédisant le temps de trajet à partir des données routières |
Boîte à outils interprétable de modélisation d'ingénierie de fonctionnalités | L'un des aspects les plus difficiles de l'exploration de données est l'interprétation des fonctionnalités. Ces boîtes à outils sont très utiles. |
Données médicales sur le diabète nommées reconnaissance d'entité | Explication de l'algorithme de reconnaissance d'entité nommée et analyse d'exemples d'application |
Ingénierie des fonctionnalités du modèle de contrôle des risques de la plateforme de prêt | L'utilisation de modèles graphiques pour créer une ingénierie de fonctionnalités est une idée largement utilisée. |
Modèle d'extraction de mots clés d'actualité | L’extraction de mots-clés peut être considérée comme une compétence essentielle pour la PNL |
Modèle pratique de projet d'apprentissage automatique | Le modèle est ici. Vous pouvez l'appliquer à des tâches futures. |
Analyse des utilisateurs sensibles à la puissance | Exemples de compétition, expliquant principalement le rôle de l'ingénierie des fonctionnalités |
L'exploration de données utilise principalement la modélisation pour faire des prédictions, tandis que l'analyse des données se concentre sur l'affichage visuel et l'analyse de l'impact de divers indicateurs sur les résultats. Nous avons sélectionné pour vous quelques cas d’analyse classiques, dont beaucoup peuvent être utilisés directement comme modèles.
Nom du cas | Aperçu du contenu |
---|---|
Techniques de dessin de nuages de points | On dit que la visualisation est le point clé et que le dessin est définitivement un incontournable. |
Analyse et modélisation des opérations de taxi à New York | Après avoir utilisé de nombreuses boîtes à outils, vous pourrez vous familiariser avec la manière d'analyser et d'afficher des données géographiques. |
Tâche de recommandation de films basée sur une analyse statistique | Méthodes couramment utilisées pour l’analyse statistique et les recommandations |
Modèles d’analyse de données et d’apprentissage automatique | Ce modèle est vraiment complet, comprenant l'analyse, l'affichage, la modélisation et l'évaluation. |
Réduction de la dimensionnalité des données | Analyse comparative et affichage de plusieurs algorithmes de réduction de dimensionnalité couramment utilisés |
Affichage visuel du produit et traitement de texte | Prétraitement des données texte et affichage visuel |
analyse multivariée | L'analyse multivariée est également une méthode courante dans l'analyse des données |
Analyse des ensembles de données de commande de produits | Analyse des ensembles de données de commande |
Analyse des données de prêt KIVA | Analyse des ensembles de données de prêt |
L’apprentissage profond peut être considéré comme l’algorithme le plus utile à l’heure actuelle et il peut être utilisé dans divers domaines. En fait, l’essentiel réside toujours dans la vision par ordinateur et le traitement du langage naturel, car les algorithmes de réseaux neuronaux sont plus adaptés aux données d’images et de texte. Les principales choses que vous devez maîtriser sont les algorithmes et les frameworks. Les algorithmes sont des modèles de réseau classiques tels que CNN et RNN, et les frameworks sont des outils pratiques tels que tenorflow, Pytorch, etc., qui seront discutés en détail plus tard.
Il semble que lorsque de nombreux amis se voient confier une tâche maintenant, leur première pensée est d'utiliser directement l'apprentissage en profondeur. Si l’apprentissage profond était difficile et fastidieux à mettre en œuvre, serait-il toujours aussi populaire ? En fait, au contraire, je pense que l'apprentissage profond est en réalité beaucoup plus simple que l'apprentissage automatique. Dans l'apprentissage automatique, nous devons choisir différentes méthodes de prétraitement et de construction d'ingénierie de fonctionnalités pour différentes données. Les routines du deep learning sont relativement plus fixes, et avec ces frameworks open source et ces grandes architectures de réseau classiques, il suffit généralement de les appliquer. La difficulté globale est plus facile que la tâche d'apprentissage automatique (relativement parlant !).
Nom de l'algorithme | Aperçu du contenu |
---|---|
réseau neuronal | Le réseau de neurones est le plus basique, ce qui équivaut à jeter les bases de l'apprentissage des réseaux ultérieurs. |
réseau neuronal convolutif | Cela semble familier à tout le monde, le grand frère du deep learning ! Réseau central de vision par ordinateur |
réseau neuronal récurrent | Bei Qiao Feng et Nan Murong sont les grands frères du traitement du langage naturel ! |
réseau génératif contradictoire | C'est un modèle populaire maintenant. Il est amusant de jouer avec et peut être utilisé pour diverses fusions d'images. |
modèle de réseau de séquences | Les architectures couramment utilisées en PNL, les modèles de traduction d'apprentissage automatique, ont de nombreux points d'application |
Grandes architectures réseaux classiques | Les CNN et RNN mentionnés tout à l'heure sont des modèles de réseau relativement basiques, et il existe de nombreuses extensions basées sur eux que tout le monde doit maîtriser. |
Le cadre revient à dire que vous concevez un modèle de réseau, mais il serait trop compliqué de réaliser vous-même tous les processus de calcul spécifiques. Le framework fournit une méthode de calcul efficace et ne nécessite pas que nous la complétions, un ensemble de calculs entièrement automatiques. Cela équivaut à ce qu’il suffit de concevoir la structure et de lui laisser la construction spécifique. Ce qui est nécessaire pour jouer au deep learning, c’est un cadre.
Tensorflow, Pytorch, keras, caffe, etc., il y a tellement de frameworks, lequel choisir ? Y a-t-il de grandes différences entre les différents frameworks ? Les plus courants sont désormais Tensorflow et PyTorch, qui sont équivalents à KFC et McDonald's. Les deux sont très solides. Quant à savoir lequel choisir, veuillez vous référer à votre équipe de projet respective et aux exigences de vos tâches. Si je devais en recommander un, je recommanderais PyTorch à tout le monde car il est plus concis et populaire. J'ai utilisé tous ces frameworks.La raison principale est que j'ai souvent besoin de me référer à des articles et à des projets open source dans mon travail, je fais généralement le suivi des frameworks utilisés pour le code source dans les articles d'autres personnes pour le développement secondaire, donc tout le monde. utilisera ces frameworks tôt ou tard !
Il n’y a pas de théorie pour parler du framework, et il n’est pas nécessaire de lire toutes sortes de longues explications, utilisez-le simplement ! En fait, c'est une boîte à outils, vous pouvez apprendre en l'utilisant, et les cas peuvent être utilisés comme modèles pour résumer !
Nom du cadre | Aperçu du contenu |
---|---|
Cadre Caffe | Le cadre divin des temps anciens est tombé en disgrâce aujourd’hui. C’était le premier cadre que j’ai appris. |
Version Tensorflow2 | La version 2 a apporté de nombreuses améliorations et est finalement plus conviviale. Elle est bien plus confortable à utiliser que la version 1. |
Kéras | En une phrase, c'est simple ! Simple! Simple! Pas besoin d’apprendre, c’est très simple à comprendre en regardant le code |
PyTorch | Le framework le plus populaire à ce stade, j'estime qu'il sera également le framework le plus populaire cette année (2020), recommandé ! |
Nous mettons à votre disposition une multitude de cas pratiques pour chaque framework majeur de deep learning. Celui que vous utilisez dépend de vos préférences !
Je n'ai pas besoin d'expliquer qu'il est produit par Google. De nombreux projets open source de Google sont définitivement basés sur le framework TF. Si vous souhaitez étudier ou vous référer aux projets et articles open source d'autres personnes, vous devez apprendre TF. Il est également largement utilisé dans l’industrie. Cette vague sera définitivement payante !
Nom du cas | Aperçu du contenu |
---|---|
installation et introduction de tensorflow | La version 2 est introduite dans la méthode d'installation, il suffit de la parcourir brièvement. |
Interprétation des principes des réseaux neuronaux et de l'architecture globale | Revoir l'architecture du réseau neuronal |
Construire un réseau neuronal pour les tâches de classification et de régression | Utilisez TF pour effectuer des tâches de base de classification et de régression et maîtriser ses méthodes d'application |
Principes des réseaux neuronaux convolutifs et interprétation des paramètres | L'architecture de CNN est expliquée en détail pour chaque paramètre. |
Pratique d'identification de chat et de chien | La tâche classique de classification d'images, il y a beaucoup à dire ici, c'est très important |
Exemples d'amélioration des données d'image | On peut dire que la valorisation des données est désormais une compétence incontournable. |
Stratégie de formation-apprentissage par transfert en pratique | L'effet apporté par l'apprentissage par transfert est encore assez bon. |
Interprétation des principes des réseaux de neurones récursifs et des vecteurs de mots | Interprétation du modèle RNN |
Implémentation de word2vec basée sur TensorFlow | Interprétation et mise en œuvre d'un modèle vectoriel Word basé sur TF |
Tâche de classification de texte basée sur le modèle RNN | Effectuer des tâches de classification de texte basées sur TF |
tfrecord crée une source de données | Exemple de production de source de données |
Appliquer le réseau CNN à la pratique de classification de texte | CNN peut également effectuer une classification de texte |
prévision de séries chronologiques | Exemples de traitement et de modélisation de données de séries chronologiques |
Les réseaux génératifs contradictoires en pratique | GAN est là, c'est tellement amusant |
Fusion d'images pratique basée sur le projet open source CycleGan | Mon GAN préféré pour jouer, l'effet est assez amusant ! |
Architecture réseau classique Resnet en pratique | Vous pouvez apprendre l'architecture réseau que vous devez comprendre ! |
Fin 2019, le nombre d'utilisateurs du framework Pytorch a dépassé tensorflow pour devenir le framework le plus populaire du moment. La raison est en fait très simple. Tout le monde aime utiliser des frameworks plus simples et plus faciles à comprendre. Le sentiment général est en effet plus facile à utiliser que tensorflow et très pratique à déboguer. Il est également recommandé aux débutants de privilégier le framework Pytorch.
Nom du cas | Aperçu du contenu |
---|---|
Opérations de traitement de base du framework PyTorch | Familiarisez-vous simplement avec PyTorch et c’est très simple de commencer. |
Tâches pratiques de classification et de régression des réseaux neuronaux | Utiliser PyTorch pour créer un modèle de réseau neuronal est en effet plus facile à utiliser que TF |
Principes des réseaux neuronaux convolutifs et interprétation des paramètres | Architecture du modèle CNN et interprétation du livre de paramètres |
Interprétation pratique du module de base de reconnaissance d'images | Très important, le module central de traitement d'image dans PyTorch |
Le rôle et les exemples d’application de l’apprentissage par transfert | Chargement de modèles dans PyTorch pour l'apprentissage par transfert |
Interprétation des principes des réseaux de neurones récursifs et des vecteurs de mots | Interprétation de l'architecture du modèle RNN |
Pratique pratique sur la classification textuelle des ensembles de données d'actualité | Créer un modèle de classification de texte basé sur PyTorch |
Principes et analyse pratique de l'architecture de réseau générative contradictoire | Interprétation populaire du modèle GAN |
Fusion d'images pratique basée sur le projet open source CycleGan | Version PyTorch de CYCLEGAN, ce projet open source est très bien écrit |
Principe de reconnaissance de texte OCR | Le principe de l’OCR est en réalité très simple et nécessite l’assistance de plusieurs modèles pour le réaliser. |
Pratique du projet de reconnaissance de texte OCR | Créer un modèle de réseau OCR |
Analyse vidéo et reconnaissance d'actions basées sur la convolution 3D | Utilisez la convolution 3D pour traiter les données vidéo et compléter la reconnaissance des comportements |
Modèle BERT pratique basé sur PyTorch | L'architecture de BERT est si populaire qu'elle fait partie des modèles incontournables. |
Interprétation des modèles pratiques du framework PyTorch | Fournir un modèle afin que les tâches futures puissent être améliorées sur la base du modèle |
Le sentiment général est que vous n’avez rien à apprendre, vous pouvez simplement l’utiliser directement à partir du boîtier. La version TF2 est en fait très similaire aux keras. Convient pour faire des expériences et rédiger des articles, simple et rapide !
Nom du cas | Aperçu du contenu |
---|---|
Installation et présentation | Keras est facile à installer et à démarrer, basé sur TF |
Construire un modèle de réseau neuronal | Construire un modèle de réseau neuronal pour tester les eaux |
Une autre bataille contre les réseaux de neurones convolutionnels | Les modèles CNN sont également très faciles à construire |
Tâche de prévision de la série temporelle LSTM | Modèle LSTM appliqué aux tâches de séries chronologiques |
Pratique de classification du texte | Exemple de classification de texte |
Plusieurs étiquettes et plusieurs sorties | Les tâches multi-étiquettes sont très courantes et ont une grande valeur d'apprentissage |
Pratique pratique sur la classification du texte des ensembles de données d'actualités | Tâche de classification du texte basé sur des keras |
augmentation des données | Interprétation des exemples d'augmentation des données |
réseau génératif adversaire | GAN Architecture, il est plus facile d'utiliser des keras |
Transférer un réseau résiduel d'apprentissage et de resnet | Vous devez jouer avec le modèle Resnet vous-même |
Adressez la tâche de séquence multiple du code postal | Exemple de modèle de texte |
Pratique du réseau SEQ2SEQ | Le modèle de réseau de séquence est toujours largement utilisé. |
Résumé des modèles pratiques | Le modèle Keras est fourni pour tout le monde. |
Je pense que Tensorflow et Pytorch sont déjà disponibles à ce stade, et ce n'est pas le tour de Caffe pour apparaître pour le moment. Il peut y avoir des papiers et des tâches qui nécessitent toujours le cadre de la CAFFE.
Nom de cas | Aperçu du contenu |
---|---|
Interprétation du fichier de configuration de la CAFFE | Interprétation des fichiers de configuration couramment utilisés de Caffe Framework |
Divers méthodes de construction de données de données | Méthode de construction de l'ensemble de données, c'est très important |
Interprétation des outils de CAFE communs | Il existe de nombreux petits outils intégrés pour effectuer les tâches rapidement |
Détection du visage dans la pratique | Construisez un modèle de détection de visage basé sur le cadre de la Caffe |
Pratique pratique de la localisation des points clés faciaux | Modèle de reconnaissance des points faciaux complets basé sur le cadre de la CAFFE |
Je n'ai pas besoin de dire grand-chose sur l'industrie de la vision par ordinateur, c'est le plus populaire en ce moment. Alors, que avez-vous besoin d'apprendre? Le noyau est en fait deux parties, l'une est un traitement d'image et l'autre est la modélisation d'images. Le soi-disant traitement d'image est ce que fait OpenCV. La modélisation d'images utilise principalement l'apprentissage en profondeur pour effectuer des tâches telles que la détection et la reconnaissance. À ce stade de l'étude, je pense que vous n'avez pas besoin de lire sur les algorithmes traditionnels de traitement d'images.
Il est recommandé de choisir la version Python pour l'apprendre et l'utiliser. Comme les autres boîtes à outils, ajustez-la et vous avez terminé! Si vous rencontrez quelque chose que vous ne connaissez pas, vérifiez davantage l'API. Fondamentalement, toutes les fonctions d'OpenCV impliquent beaucoup de formules mathématiques.
Nous avons préparé beaucoup de ressources d'apprentissage et de cas pour tout le monde.
Nom de cas | Aperçu du contenu |
---|---|
OpenCV Introduction et configuration de l'environnement | Installation et configuration de l'environnement |
Opérations d'image de base | Utilisez OpenCV pour terminer les opérations de traitement de base et la pratique! |
Soufflement et lissage | Les opérations de traitement les plus couramment utilisées peuvent être complétées avec seulement quelques lignes de code |
Opérations de morphologie d'image | Familiarisé avec ces opérations morphologiques |
Calcul du gradient d'image | Exemple de calcul du gradient d'image |
détection de bord | La détection des bords a un large éventail d'applications |
Pyramide d'image et détection de contour | Exemple de détection des contour, l'effet est toujours bon |
Histogramme et transformée de Fourier | Se familiariser avec ça |
Identification numérique de la carte de créditation de projet de projet | Faire un projet pratique pour détecter et identifier les numéros de carte de crédit |
Project Practice-Document Scanning OCR Reconnaissance | Analyser les données du document pour la reconnaissance de l'OCR |
Caractéristiques de l'image-Harris | Méthodes d'extraction de caractéristiques couramment utilisées, l'algorithme est simple et familier |
Caractéristiques d'image-sift | La méthode d'extraction des fonctionnalités la plus ancienne, elle nécessite encore beaucoup de mathématiques. |
Pratique de cas Panoramique Couture | Tout le monde doit avoir joué avec une caméra panoramique, comment y parvenir? |
Identification de l'espace de stationnement du projet | Projet lourd, construire un modèle de reconnaissance d'espace de stationnement à partir de zéro |
Identification et jugement des cartes de pratique du projet | Autons également le plaisir avec le marquage automatique |
Modélisation de fond | Méthodes de traitement conventionnelles |
Estimation du flux optique | Soyez juste familier avec |
Module OpenCV DNN | Chargez le modèle formé pour la reconnaissance |
Pratique du projet - suivi des objectifs | L'effet de suivi est assez intéressant. |
Principes et opérations de convolution | Partout où la convolution va, c'est le noyau. |
Détection de pratique de la pratique du projet | Détection de la fatigue en fonction de la caméra |
Je recommande que les étudiants qui se préparent à des entretiens d'embauche de tout. Le code à l'intérieur du montant sera relativement important, il est donc recommandé de commencer par le mode de débogage et de consulter le code par ligne.
Nous recommandons fortement le projet Practical Mask-RCNN. Les scénarios d'application sont très larges, et il convient également au développement et à l'amélioration. Je vais me concentrer sur l'explication du projet et l'appliquer à moi-même.
Nom du projet | Aperçu du contenu |
---|---|
Transfert de style d'image (transfert de style) | Principalement pour apprendre ses idées, l'effet est toujours très intéressant |
Compléter automatiquement les images manquantes | Il existe de nombreux scénarios d'application pour le réseau GAN, et les images peuvent également être réparées par elles-mêmes. |
Reconstruction de super-résolution | L'un des principaux domaines de recherche ces dernières années, les résultats de cet article sont déjà très bons. |
Projet de framework-MaskRCNN d'objet | Ceci est le projet open source que je souligne, un incontournable! A voir absolument ! A voir absolument ! |
Explication détaillée du code source du cadre réseau MaskRCNN | Le code source est très important, vous devez comprendre chaque ligne! |
Formez vos propres données en fonction du framework Mask-RCNN | Comment étiqueter les données d'image et les former? Voici votre réponse |
Démo de reconnaissance de la posture humaine | Il existe de nombreux scénarios d'application pour maskrcnn |
Série de détection d'objets plus rapide | Une œuvre classique sur la détection d'objets qui peut être utilisée comme ressource d'apprentissage |
Fusion d'image pratique basée sur le projet open source de Cyclegan | Version Pytorch de Cyclegan, ce projet open source est très bien écrit |
Principe de reconnaissance du texte OCR | Le principe de l'OCR est en fait très simple et nécessite l'aide de plusieurs modèles pour le terminer. |
Pratique du projet de reconnaissance de texte OCR | Créer un modèle de réseau OCR |
Analyse vidéo et reconnaissance d'action basée sur la convolution 3D | Utilisez la convolution 3D pour traiter les données vidéo et compléter la reconnaissance du comportement |
On peut dire que la difficulté est assez élevée. Mais les données de texte ne sont pas si fixes, et parfois il n'est pas facile pour les humains de comprendre, sans parler des ordinateurs. Les défis élevés sont également des avantages élevés.
En 2018, un Google Paper est sorti, Bert! Il équivaut à un cadre de solution général pour le traitement du langage naturel et peut essentiellement effectuer toutes les tâches! Cela nécessite que tout le monde se concentre sur l'apprentissage, et il peut être écrit comme un projet dans votre CV.
Nom du projet | Aperçu du contenu |
---|---|
modèle de langue | Le modèle de langue nécessite que tout le monde se familiarise avec la base des vecteurs de mots suivants. |
Utilisez Gemsim pour construire des vecteurs de mots | Gensim est un package vraiment utile! |
Tâche de classification basée sur word2vec | Utilisons d'abord cet exemple pour comprendre comment utiliser des vecteurs de mots |
Comparaison des méthodes de fonctionnalité NLP-Text | Il y a tellement de façons de construire des fonctionnalités de texte, laquelle est la meilleure? |
Analyse du sentiment LSTM | Utilisez ce projet pour comprendre à quoi ressemble les entrées requises par un modèle RNN |
Modèle de Similarité PNL | Méthode de calcul de la similitude du texte |
Bot de conversation | Créez un chatbot basé sur le framework Tensorlfow |
Créez votre propre méthode d'entrée | Pouvez-vous créer votre propre méthode d'entrée? Vous aider à le faire! |
Robot écrit Poetry Tang | Jetez un œil à la poésie Tang écrite par le modèle! |
Boîte de traduction machine NMT | Projet open source, capable de développement secondaire |
Adressez la tâche de séquence multiple du code postal | Tâches classiques de classification du texte |
Principe de Bert, un cadre général pour le traitement du langage naturel | C'est le Bert mentionné ci-dessus, le point! Le point! Le point! |
Interprétation du code source du projet open source de Google Bert | Le code source est très important, chaque ligne doit être comprise |
Analyse des sentiments chinois basé sur Bert | Développement du modèle basé sur des projets open source |
Reconnaissance de l'entité nommée chinoise basée sur Bert | Reconnaissance de l'entité nommée basée sur des projets open source |
Grâce à des cours en ligne et à une formation hors ligne au cours des dernières années, j'ai rencontré de nombreux amis. Tout le monde me connaît essentiellement à travers des cours vidéo, et je suis très heureux de pouvoir apporter des avantages à tout le monde. Grâce à tant d'amis pour leur soutien, allez, vous êtes tous les meilleurs!