IA al límite
Una lista seleccionada de hardware, software, marcos y otros recursos para la Inteligencia Artificial en el borde. Inspirado en Awesome-Dataviz.
Contenido
- Hardware
- Software
- Marcos
- Contribuyendo
- Licencia
Hardware
- OpenMV: una cámara que funciona con MicroPython en ARM Cortex M6/M7 y gran soporte para algoritmos de visión por computadora. Ahora también con soporte para Tensorflow Lite.
- JeVois: un módulo de cámara habilitado para TensorFlow.
- Edge TPU: el ASIC especialmente diseñado por Google para ejecutar inferencias en el borde.
- Movidius: la familia de SoC de Intel diseñada específicamente para aplicaciones de redes neuronales y visión por computadora de bajo consumo en dispositivos.
- UP AI Edge: línea de productos basados en VPU Intel Movidius (incluidos Myriad 2 y Myriad X) y FPGA Intel Cyclone.
- DepthAI: una plataforma integrada para combinar profundidad e IA, construida alrededor de Myriad X
- NVIDIA Jetson: sistema en módulo integrado de alto rendimiento para desbloquear el aprendizaje profundo, la visión por computadora, la computación GPU y los gráficos en entornos con restricciones de red.
- Supersónico TX1
- Supersónico TX2
- Supersónico Nano
- Radio - Transceptor de Inteligencia Artificial (AIR-T): SDR de alto rendimiento perfectamente integrado con hardware de aprendizaje profundo de última generación.
- Kendryte K210: chip RISC-V de doble núcleo con aceleración de red neuronal convolucional utilizando 64 KLU (Unidad lógica aritmética Kendryte).
- Sipeed M1: basado en el Kendryte K210, el módulo agrega conectividad WiFi y una memoria flash externa.
- M5StickV - Cámara AIoT (AI+IoT) con tecnología Kendryte K210
- UNIT-V: cámara AI con tecnología Kendryte K210 (M5StickV de gama baja)
- Kendryte K510: procesador RISC-V de tres núcleos sincronizado con aceleradores de IA.
- GreenWaves GAP8: chip basado en RISC-V con aceleración de hardware para operaciones convolucionales.
- GreenWaves GAP9: chip basado en RISC-V centrado principalmente en el procesamiento de audio centrado en IA.
- Ultra96: plataforma de desarrollo integrada que presenta una FPGA Xilinx UltraScale+ MPSoC.
- Apollo3 Blue: placa de desarrollo SparkFun Edge impulsada por un Cortex M4 de Ambiq Micro.
- Google Coral: plataforma de componentes de hardware y herramientas de software para productos de IA locales basada en el coprocesador Google Edge TPU.
- Tableros de desarrollo
- Aceleradores USB
- Módulos PCIe/M.2
- Gyrfalcon Technology Lighspeeur: familia de chips optimizados para informática de punta.
- ARM microNPU: procesadores diseñados para acelerar la inferencia de ML (siendo el primero el Ethos-U55).
- Espressif ESP32-S3: SoC similar al conocido ESP32 con soporte para aceleración AI (entre muchas otras diferencias interesantes).
- Maxim MAX78000: SoC basado en un Cortex-M4 que incluye un acelerador CNN.
- Beagleboard BeagleV: placa Linux de código abierto basada en RISC-V que incluye un motor de red neuronal.
- Syntiant TinyML: kit de desarrollo basado en el procesador de decisión neuronal Syntiant NDP101 y un SAMD21 Cortex-M0+.
- STM32N6: Arm Cortex-M55 que funciona a 800 MHz y que incorpora una unidad de procesamiento neuronal (NPU).
Software
- TensorFlow Lite: solución liviana para dispositivos móviles e integrados que permite la inferencia de aprendizaje automático en el dispositivo con baja latencia y un tamaño binario pequeño.
- TensorFlow Lite para microcontroladores: puerto de TF Lite para microcontroladores y otros dispositivos con solo kilobytes de memoria. Nace de una fusión con uTensor.
- Biblioteca de aprendizaje integrada (ELL): biblioteca de Microsoft para implementar modelos inteligentes de aprendizaje automático en plataformas con recursos limitados y pequeñas computadoras de placa única.
- uTensor: biblioteca de inferencia de IA basada en mbed (un RTOS para conjuntos de chips ARM) y TensorFlow.
- CMSIS NN: una colección de núcleos de redes neuronales eficientes desarrollados para maximizar el rendimiento y minimizar la huella de memoria de las redes neuronales en los núcleos de procesador Cortex-M.
- Biblioteca de computación ARM: conjunto de funciones optimizadas para procesamiento de imágenes, visión por computadora y aprendizaje automático.
- SDK de procesamiento neuronal de Qualcomm para IA: las bibliotecas para desarrolladores ejecutan modelos NN en plataformas móviles Snapdragon aprovechando la CPU, GPU y/o DSP.
- ST X-CUBE-AI: kit de herramientas para generar NN optimizado para MCU STM32.
- ST NanoEdgeAIStudio: herramienta que genera un modelo para cargarlo en una MCU STM32.
- Neural Network on Microcontroller (NNoM): biblioteca de red neuronal basada en capas de nivel superior específicamente para microcontroladores. Soporte para CMSIS-NN.
- nncase: pila de compilador abierta de aprendizaje profundo para el acelerador de IA Kendryte K210.
- deepC: compilador de aprendizaje profundo y marco de inferencia dirigido a plataformas integradas.
- uTVM: MicroTVM es una herramienta de código abierto para optimizar programas tensoriales.
- Edge Impulse: plataforma interactiva para generar modelos que pueden ejecutarse en microcontroladores. También son bastante activos en las redes sociales hablando sobre noticias recientes sobre EdgeAI/TinyML.
- Qeexo AutoML: plataforma interactiva para generar modelos de IA dirigidos a microcontroladores.
- mlpack: biblioteca de aprendizaje automático rápido de C++ solo con encabezados que se centra en una implementación ligera. Tiene una amplia variedad de algoritmos de aprendizaje automático con la posibilidad de realizar aprendizaje en el dispositivo en MPU.
- AIfES: marco de software de IA autónomo e independiente de la plataforma optimizado para sistemas integrados.
- onnx2c: compilador de ONNX a C dirigido a "Tiny ML".
Otros recursos interesantes
- Evaluación comparativa de Edge Computing (mayo de 2019)
- Punto de referencia de hardware para IA perimetral en cubesats - Open Source Cubesat Workshop 2018
- ¿Por qué el aprendizaje automático en el borde?
- Tutorial: Aprendizaje profundo de bajo consumo en OpenMV Cam
- TinyML: aprendizaje automático con TensorFlow en Arduino y microcontroladores de potencia ultrabaja: libro de O'Reilly escrito por Pete Warden, Daniel Situnayake.
- Cumbre tinyML: conferencia anual y reunión mensual celebrada en California, EE. UU. Las charlas y diapositivas suelen estar disponibles en el sitio web.
- Artículos y proyectos de TinyML: recopilación de los artículos y proyectos más recientes en el campo TinyML/EdgeAI.
- MinUn: inferencia de aprendizaje automático precisa en microcontroladores.
Contribuyendo
- Primero verifique si hay duplicados.
- Mantenga descripciones breves, simples e imparciales.
- Por favor haga un compromiso individual para cada sugerencia.
- Agregue una nueva categoría si es necesario.
¡Gracias por tus sugerencias!
Licencia
En la medida de lo posible según la ley, Xabi Crespo ha renunciado a todos los derechos de autor y derechos afines o conexos de esta obra.