[2024-septiembre] Se realizó la versión 10.0. Se han actualizado los SDK, edgeai-tidl-tools y edgeai-tensorlab.
Más detalles se encuentran en las Notas de la versión.
Consulte también las notas de la versión de SDK, las notas de la versión de edgeai-tidl-tools y las notas de la versión de edgeai-tensorlab.
Nuestras páginas de inicio de documentación son las siguientes:
https://www.ti.com/edgeai: página de tecnología que resume los productos de software/hardware de IA de vanguardia de TI
https://github.com/TexasInstruments/edgeai: página de inicio para que los desarrolladores comprendan la oferta general de software y herramientas
Nuestros repositorios han sido reestructurados : navegue hasta las tablas a continuación para comprender cómo se empaquetan ahora varios repositorios dentro de edgeai-tensorlab.
La inferencia integrada de modelos de aprendizaje profundo es bastante desafiante debido a los altos requisitos informáticos. El producto de software integral Edge AI de TI ayuda a optimizar y acelerar la inferencia en los dispositivos integrados de TI. Admite la ejecución heterogénea de DNN en MPU basadas en Cortex-A, el DSP C7x de última generación de TI y el acelerador DNN (MMA).
La solución Edge AI de TI simplifica todo el ciclo de vida del producto de desarrollo e implementación de DNN al proporcionar un amplio conjunto de herramientas y bibliotecas optimizadas.
La siguiente figura proporciona un resumen de alto nivel de las herramientas relevantes:
La siguiente tabla proporciona una explicación detallada de cada una de las herramientas:
Categoría | Herramienta/Enlace | Objetivo | NO ES |
---|---|---|---|
Herramientas de inferencia (y compilación) | herramientas-edgeai-tidl | Familiarizarse con la compilación de modelos y el flujo de inferencia. - Cuantización posterior al entrenamiento. - Latencia de referencia con modelos de ejemplo listos para usar (10+) - Compilar usuario/modelo personalizado para implementación. - Inferencia de modelos compilados en X86_PC o TI SOC usando entrada y salida de base de archivos - Docker para una fácil configuración del entorno de desarrollo | - No admite evaluaciones comparativas de precisión de modelos que utilizan TIDL con conjuntos de datos estándar, por ejemplo, evaluaciones comparativas de precisión utilizando conjuntos de datos MS COCO para modelos de detección de objetos. Consulte edgeai-benchmark para ver lo mismo. - No admite el desarrollo de canalizaciones de un extremo a otro basado en cámaras, pantallas e inferencias. Consulte el SDK de Edge AI para dicho uso. |
Herramienta de selección de modelo | Edge AI Studio: herramienta de selección de modelos | Comprenda las estadísticas de rendimiento de modelos como FPS, latencia, precisión y ancho de banda DDR. Encuentre el modelo que mejor se adapte a sus objetivos de rendimiento y precisión en el procesador TI de TI Model Zoo. | |
Entorno integrado para formación y compilación. | Edge AI Studio: analizador de modelos | Entorno basado en navegador para permitir la evaluación de modelos con TI EVM Farm - Permitir la evaluación del modelo sin configuración de software/hardware por parte del usuario - El usuario puede reservar EVM desde la granja TI EVM y realizar una evaluación del modelo utilizando jupyter notebook - Herramienta de selección de modelos : para proporcionar arquitecturas de modelos adecuadas para dispositivos TI | - No admite el desarrollo de canalizaciones de un extremo a otro basado en cámaras, pantallas e inferencias. Consulte el SDK de Edge AI para dicho uso. |
ídem | Edge AI Studio: Compositor de modelos | Entorno integrado basado en GUI para captura, anotación, capacitación y compilación de conjuntos de datos con conectividad a la placa de desarrollo de TI - Traiga/capture sus propios datos, anote, seleccione un modelo, realice capacitación y genere artefactos para implementar en SDK - Vista previa en vivo para comentarios rápidos | - No admite el flujo de trabajo Traiga su propio modelo |
Kit de desarrollo de software de IA perimetral | Dispositivos y SDK | SDK para desarrollar un canal de IA de extremo a extremo con cámara, inferencia y visualización - Tiempo de ejecución de inferencia diferente: TFLiteRT, ONNXRT, NEO AI DLR, TIDL-RT - Marco: openVX, gstreamer - Controladores de dispositivos: cámara, pantalla, redes. - SO: Linux, RTOS - Puede que otros módulos de software: codecs, OpenCV,… |
Categoría | Herramienta/Enlace | Objetivo | NO ES |
---|---|---|---|
Model Zoo, entrenamiento de modelos, compilación/benchmark y herramientas asociadas | edgeai-tensorlab | Proporcionar software de capacitación de modelos, colección de modelos previamente entrenados y scripts de documentación y compilación/comparación. Incluye edgeai-modelzoo, edgeai-benchmark, edgeai-modeloptimization, edgeai-modelmaker, edgeai-torchvision, edgeai-mmdetection y repositorios similares. |
Traiga su propio flujo de trabajo modelo (BYOM):
Entrene su propio flujo de trabajo modelo (TYOM):
Traiga su propio flujo de trabajo de datos (BYOD):
La documentación técnica se puede encontrar en la documentación de cada repositorio. Aquí tenemos una colección de informes técnicos y tutoriales que brindan una descripción general de alto nivel sobre diversos temas.
Informes técnicos de Edge AI en edgeai-tensorlab
Lea algunas de nuestras publicaciones técnicas
El rastreador de problemas para Edge AI Studio aparece en su página de inicio.
Seguimiento de problemas para TIDL : incluya la etiqueta TIDL (a medida que crea un nuevo problema, hay un espacio para ingresar etiquetas en la parte inferior de la página).
Rastreador de problemas para el SDK de Edge AI. Incluya la etiqueta EDGEAI (al crear un nuevo problema, hay un espacio para ingresar etiquetas en la parte inferior de la página).
Rastreador de problemas para ModelZoo, Model Benchmark y software de capacitación en redes neuronales profundas: incluya la etiqueta MODELZOO (a medida que crea un nuevo problema, hay un espacio para ingresar etiquetas en la parte inferior de la página).
Consulte el archivo LICENCIA para obtener más información sobre la licencia bajo la cual este repositorio de aterrizaje está disponible. El archivo de LICENCIA de cada repositorio está dentro de ese repositorio.