Formation de modèles Edge AI, quantification, compilation/benchmark et Model Zoo
Plus de détails et d'informations sur les versions précédentes sont disponibles dans les notes de version.
Il est important d'utiliser la bonne branche git (correspondant à la version du SDK) si vous comptez utiliser les modèles compilés sur un périphérique/EVM.
Nos pages de destination de documentation sont les suivantes :
Catégorie | OutilLien | But | N'EST PAS |
---|---|---|---|
Zoo modèle / Collection de modèles | edgeai-modelzoo | fournit une collection de modèles pré-entraînés | |
Compilation de modèles et analyse comparative | benchmark edgeai | Wrapper au-dessus de edgeai-tidl-tools pour une compilation facile de modèles et une analyse comparative de vitesse/précision - Apportez votre propre modèle et compilez, comparez et générez des artefacts pour le déploiement sur SDK avec caméra, inférence et affichage (à l'aide de edgeai-gst-apps) - Comprend le pipeline d'inférence, y compris le chargement, le pré-traitement et le post-traitement des ensembles de données - Analyse comparative de la précision et de la latence avec de grands ensembles de données - Quantification post-formation - Docker pour une configuration facile de l'environnement de développement | |
Outils de formation modèles | optimisation du modèle edgeai | Outils d'optimisation de modèles pour une formation améliorée des modèles, outils pour former des modèles compatibles TIDL. - Chirurgie du modèle : modifie les modèles avec une perte minimale de précision et les rend adaptés aux appareils TI (remplace les opérateurs non pris en charge) - QAT : Quantization Aware Training pour améliorer la précision avec la quantification en point fixe - Élagage/sparsité du modèle : induit une parcimonie pendant la formation - applicable uniquement pour des appareils spécifiques - ceci est en cours de développement. | - Ne prend pas en charge Tensorflow |
Formation et code du modèle | Edgeai-torchvision détection de bord-mm edgeai-mmdetection3d transformateurs edgeai-hf edgeai-mmpose edgeai-yolox | Référentiels de formation pour diverses tâches - Fournit des extensions de référentiels de formation populaires (comme mmdetection, torchvision) avec une version allégée des modèles | - Ne prend pas en charge Tensorflow |
Développement de modèles de bout en bout - Ensembles de données, formation et compilation | Edgeai-modelmaker | Adapté aux débutants , ligne de commande, environnement intégré pour la formation et la compilation - Apportez vos propres données, sélectionnez un modèle, effectuez une formation et générez des artefacts pour le déploiement sur SDK - Outil backend pour Model Composer (disponibilité anticipée des fonctionnalités par rapport à Model Composer) | - Ne prend pas en charge le flux de travail Bring Your Own Model |
Exemples d'ensembles de données, utilisés dans Edgeai-modelmaker | ensembles de données Edgeai | Exemples d'ensembles de données |
La documentation technique peut être trouvée dans la documentation de chaque référentiel. Nous avons ici une collection de rapports techniques et de didacticiels qui donnent un aperçu de haut niveau sur divers sujets - voir Edge AI Tech Reports .