[2024-septembre] La version 10.0 est terminée. Les SDK, edgeai-tidl-tools et edgeai-tensorlab ont été mis à jour.
De plus amples détails figurent dans les notes de version.
Consultez également les notes de version des SDK, les notes de version d'Edgeai-tidl-tools et les notes de version d'Edgeai-tensorlab.
Nos pages de destination de documentation sont les suivantes :
https://www.ti.com/edgeai : Page technologique résumant les produits logiciels/matériels Edge AI de TI
https://github.com/TexasInstruments/edgeai : page de destination permettant aux développeurs de comprendre l'offre globale de logiciels et d'outils
Nos référentiels ont été restructurés : veuillez naviguer vers les tableaux ci-dessous pour comprendre comment plusieurs référentiels sont désormais empaquetés dans edgeai-tensorlab
L'inférence embarquée de modèles de Deep Learning est assez difficile, en raison des exigences de calcul élevées. Le produit logiciel complet Edge AI de TI aide à optimiser et à accélérer l'inférence sur les appareils embarqués de TI. Il prend en charge l'exécution hétérogène des DNN sur les MPU basés sur le cortex-A, le DSP C7x de dernière génération de TI et l'accélérateur DNN (MMA).
La solution Edge AI de TI simplifie l'ensemble du cycle de vie du produit de développement et de déploiement de DNN en fournissant un ensemble riche d'outils et de bibliothèques optimisées.
La figure ci-dessous fournit un résumé de haut niveau des outils pertinents :
Le tableau ci-dessous fournit une explication détaillée de chacun des outils :
Catégorie | Outil/Lien | But | N'EST PAS |
---|---|---|---|
Outils d'inférence (et de compilation) | outils edgeai-tidl | Se familiariser avec la compilation de modèles et le flux d'inférence - Quantification post-formation - Latence de référence avec des exemples de modèles prêts à l'emploi (10+) - Compiler l'utilisateur/modèle personnalisé pour le déploiement - Inférence de modèles compilés sur X86_PC ou TI SOC en utilisant les entrées et sorties de base de fichiers - Docker pour une configuration facile de l'environnement de développement | - Ne prend pas en charge l'analyse comparative de la précision des modèles utilisant TIDL avec des ensembles de données standard, par exemple - l'analyse comparative de la précision à l'aide de l'ensemble de données MS COCO pour les modèles de détection d'objets. Veuillez vous référer à edgeai-benchmark pour la même chose. - Ne prend pas en charge le développement de pipeline de bout en bout basé sur la caméra, l'affichage et l'inférence. Veuillez vous référer au SDK Edge AI pour une telle utilisation |
Outil de sélection de modèle | Edge AI Studio : outil de sélection de modèle | Comprenez les statistiques de performances des modèles tels que les FPS, la latence, la précision et la bande passante DDR. Trouvez le modèle qui répond le mieux à vos objectifs de performances et de précision sur le processeur TI de TI Model Zoo. | |
Environnement intégré pour la formation et la compilation | Edge AI Studio : analyseur de modèles | Environnement basé sur un navigateur pour permettre l'évaluation de modèles avec la ferme TI EVM - Autoriser l'évaluation du modèle sans configuration logicielle/matérielle du côté de l'utilisateur - L'utilisateur peut réserver EVM à partir de la ferme TI EVM et effectuer une évaluation du modèle à l'aide du notebook Jupyter - Outil de sélection de modèles : Pour fournir des architectures de modèles adaptées aux appareils TI | - Ne prend pas en charge le développement de pipeline de bout en bout basé sur la caméra, l'affichage et l'inférence. Veuillez vous référer au SDK Edge AI pour une telle utilisation |
idem | Edge AI Studio : compositeur de modèles | Environnement intégré basé sur une interface graphique pour la capture, l'annotation, la formation et la compilation d'ensembles de données avec connectivité à la carte de développement TI - Apportez/Capturez vos propres données, annotez, sélectionnez un modèle, effectuez une formation et générez des artefacts pour le déploiement sur SDK - Aperçu en direct pour un retour rapide | - Ne prend pas en charge le flux de travail Bring Your Own Model |
Kit de développement logiciel Edge AI | Appareils et SDK | SDK pour développer un pipeline d'IA de bout en bout avec caméra, inférence et affichage - Différents environnements d'exécution d'inférence : TFLiteRT, ONNXRT, NEO AI DLR, TIDL-RT - Framework : openVX, gstreamer - Pilotes de périphériques : caméra, écran, réseau - Système d'exploitation : Linux, RTOS - Peut-être d'autres modules logiciels : codecs, OpenCV,… |
Catégorie | Outil/Lien | But | N'EST PAS |
---|---|---|---|
Model Zoo, Formation de modèles, compilation/benchmark & outils associés | Edgeai-tensorlab | Fournir un logiciel de formation de modèles, une collection de modèles pré-entraînés et des scripts de documentation et de compilation/benchmark. Comprend edgeai-modelzoo, edgeai-benchmark, edgeai-modeloptimization, edgeai-modelmaker, edgeai-torchvision, edgeai-mmdetection et des référentiels similaires. |
Flux de travail Apportez votre propre modèle (BYOM) :
Flux de travail de formation de votre propre modèle (TYOM) :
Flux de travail Apportez vos propres données (BYOD) :
La documentation technique peut être trouvée dans la documentation de chaque référentiel. Nous avons ici une collection de rapports techniques et de didacticiels qui donnent un aperçu de haut niveau sur divers sujets.
Rapports techniques Edge AI dans Edgeai-tensorlab
Lisez certaines de nos publications techniques
Le suivi des problèmes pour Edge AI Studio est répertorié sur sa page de destination.
Suivi des problèmes pour TIDL : veuillez inclure la balise TIDL (lorsque vous créez un nouveau problème, il y a un espace pour saisir les balises, en bas de la page).
Suivi des problèmes pour le SDK Edge AI Veuillez inclure la balise EDGEAI (lorsque vous créez un nouveau problème, il y a un espace pour saisir les balises, en bas de la page).
Suivi des problèmes pour ModelZoo, Model Benchmark et Deep Neural Network Training Software : veuillez inclure la balise MODELZOO (lorsque vous créez un nouveau problème, il y a un espace pour saisir les balises, en bas de la page).
Veuillez consulter le fichier LICENSE pour plus d'informations sur la licence sous laquelle ce référentiel de destination est mis à disposition. Le fichier LICENSE de chaque référentiel se trouve à l'intérieur de ce référentiel.