[2024-September] Die Veröffentlichung von 10.0 ist abgeschlossen. SDKs, Edgeai-Tidl-Tools und Edgeai-Tensorlab wurden aktualisiert.
Weitere Details finden Sie in den Release Notes.
Sehen Sie sich auch die Versionshinweise zu den SDKs, die Versionshinweise zu Edgeai-Tidl-Tools und die Versionshinweise zu Edgeai-Tensorlab an
Unsere Dokumentations-Landingpages sind die folgenden:
https://www.ti.com/edgeai: Technologieseite mit einer Zusammenfassung der Edge-KI-Software-/Hardwareprodukte von TI
https://github.com/TexasInstruments/edgeai: Zielseite für Entwickler zum Verständnis des gesamten Software- und Tools-Angebots
Unsere Repositories wurden umstrukturiert : Bitte navigieren Sie zu den Tabellen unten, um zu verstehen, wie mehrere Repositories jetzt in Edgeai-Tensorlab verpackt sind
Die eingebettete Inferenz von Deep-Learning-Modellen ist aufgrund der hohen Rechenanforderungen eine ziemliche Herausforderung. Das umfassende Softwareprodukt Edge AI von TI trägt dazu bei, die Inferenz auf den eingebetteten Geräten von TI zu optimieren und zu beschleunigen. Es unterstützt die heterogene Ausführung von DNNs über Cortex-A-basierte MPUs, den C7x DSP der neuesten Generation von TI und den DNN-Beschleuniger (MMA).
Die Edge AI-Lösung von TI vereinfacht den gesamten Produktlebenszyklus der DNN-Entwicklung und -Bereitstellung durch die Bereitstellung eines umfangreichen Satzes an Tools und optimierten Bibliotheken.
Die folgende Abbildung bietet eine allgemeine Zusammenfassung der relevanten Tools:
Die folgende Tabelle enthält detaillierte Erläuterungen zu den einzelnen Tools:
Kategorie | Werkzeug/Link | Zweck | IST NICHT |
---|---|---|---|
Inferenz- (und Kompilierungs-)Tools | Edgeai-Tidl-Tools | Machen Sie sich mit der Modellkompilierung und dem Inferenzfluss vertraut - Quantisierung nach dem Training - Benchmark-Latenz mit sofort einsatzbereiten Beispielmodellen (10+) - Kompilieren Sie ein Benutzer-/benutzerdefiniertes Modell für die Bereitstellung - Inferenz kompilierter Modelle auf X86_PC oder TI SOC mithilfe der Dateibasis-Eingabe und -Ausgabe - Docker für die einfache Einrichtung der Entwicklungsumgebung | – Unterstützt kein Benchmarking der Genauigkeit von Modellen, die TIDL mit Standarddatensätzen verwenden, z. B. Genauigkeitsbenchmarking mithilfe des MS COCO-Datensatzes für Objekterkennungsmodelle. Weitere Informationen finden Sie im Edgeai-Benchmark. – Unterstützt keine Kamera-, Anzeige- und inferenzbasierte End-to-End-Pipeline-Entwicklung. Informationen zu einer solchen Verwendung finden Sie im Edge AI SDK |
Modellauswahltool | Edge AI Studio: Modellauswahltool | Verstehen Sie Leistungsstatistiken von Modellen wie FPS, Latenz, Genauigkeit und DDR-Bandbreite. Finden Sie auf dem TI Processor von TI Model Zoo das Modell, das Ihren Leistungs- und Genauigkeitszielen am besten entspricht. | |
Integrierte Umgebung für Schulung und Zusammenstellung | Edge AI Studio: Modellanalysator | Browserbasierte Umgebung zur Modellbewertung mit der TI EVM-Farm - Ermöglichen Sie die Modellbewertung ohne Software-/Hardware-Einrichtung durch den Benutzer – Der Benutzer kann EVM von der TI EVM-Farm reservieren und eine Modellbewertung mit Jupyter Notebook durchführen - Modellauswahltool : Zur Bereitstellung geeigneter Modellarchitekturen für TI-Geräte | – Unterstützt keine Kamera-, Anzeige- und inferenzbasierte End-to-End-Pipeline-Entwicklung. Informationen zu einer solchen Verwendung finden Sie im Edge AI SDK |
dito | Edge AI Studio: Model Composer | GUI-basierte integrierte Umgebung für die Erfassung, Kommentierung, Schulung und Kompilierung von Datensätzen mit Konnektivität zum TI-Entwicklungsboard - Bringen/erfassen Sie Ihre eigenen Daten, kommentieren Sie, wählen Sie ein Modell aus, führen Sie Schulungen durch und generieren Sie Artefakte für die Bereitstellung im SDK - Live-Vorschau für schnelles Feedback | - Unterstützt den Bring Your Own Model-Workflow nicht |
Edge AI-Softwareentwicklungskit | Geräte und SDKs | SDK zur Entwicklung einer End-to-End-KI-Pipeline mit Kamera, Inferenz und Anzeige - Unterschiedliche Inferenzlaufzeit: TFLiteRT, ONNXRT, NEO AI DLR, TIDL-RT - Framework: openVX, gstreamer - Gerätetreiber: Kamera, Display, Netzwerk - Betriebssystem: Linux, RTOS - Möglicherweise andere Softwaremodule: Codecs, OpenCV,… |
Kategorie | Werkzeug/Link | Zweck | IST NICHT |
---|---|---|---|
Modellzoo, Modellschulung, Zusammenstellung/Benchmark und zugehörige Tools | Edgeai-Tensorlab | Bereitstellung von Modelltrainingssoftware, Sammlung vorab trainierter Modelle sowie Dokumentations- und Kompilierungs-/Benchmark-Skripten. Enthält Edgeai-Modelzoo, Edgeai-Benchmark, Edgeai-Modeloptimierung, Edgeai-Modelmaker, Edgeai-Torchvision, Edgeai-MMDetection und ähnliche Repositorys. |
Bring Your Own Model (BYOM)-Workflow:
Trainieren Sie Ihren eigenen Modell-Workflow (TYOM):
Bring Your Own Data (BYOD)-Workflow:
Technische Dokumentation finden Sie in der Dokumentation jedes Repositorys. Hier haben wir eine Sammlung technischer Berichte und Tutorials, die einen umfassenden Überblick über verschiedene Themen bieten.
Edge AI Tech Reports im Edgeai-Tensorlab
Lesen Sie einige unserer technischen Veröffentlichungen
Der Issue-Tracker für Edge AI Studio ist auf seiner Landingpage aufgeführt.
Issue-Tracker für TIDL : Bitte fügen Sie das Tag TIDL ein (wenn Sie ein neues Issue erstellen, gibt es unten auf der Seite einen Platz zum Eingeben von Tags).
Issue-Tracker für Edge AI SDK Bitte fügen Sie das Tag EDGEAI ein (wenn Sie ein neues Problem erstellen, gibt es unten auf der Seite einen Platz zum Eingeben von Tags).
Issue-Tracker für ModelZoo, Model Benchmark und Deep Neural Network Training Software: Bitte fügen Sie das Tag MODELZOO ein (wenn Sie ein neues Problem erstellen, gibt es unten auf der Seite einen Platz zum Eingeben von Tags).
Weitere Informationen zu der Lizenz, unter der dieses Landing-Repository zur Verfügung gestellt wird, finden Sie in der Datei LIZENZ. Die LICENSE-Datei jedes Repositorys befindet sich in diesem Repository.