L'IA à la pointe
Une liste organisée de matériel, de logiciels, de frameworks et d'autres ressources pour l'intelligence artificielle à la périphérie. Inspiré par Awesome-dataviz.
Contenu
- Matériel
- Logiciel
- Cadres
- Contribuer
- Licence
Matériel
- OpenMV - Une caméra qui fonctionne avec MicroPython sur ARM Cortex M6/M7 et une excellente prise en charge des algorithmes de vision par ordinateur. Désormais avec prise en charge de Tensorflow Lite également.
- JeVois - Un module de caméra compatible TensorFlow.
- Edge TPU : ASIC spécialement conçu par Google, conçu pour exécuter des inférences en périphérie.
- Movidius - Famille de SoC d'Intel conçue spécifiquement pour les applications de vision par ordinateur et de réseaux neuronaux à faible consommation sur appareil.
- UP AI Edge - Gamme de produits basée sur les VPU Intel Movidius (y compris Myriad 2 et Myriad X) et les FPGA Intel Cyclone.
- DepthAI - Une plateforme embarquée pour combiner Depth et IA, construite autour de Myriad X
- NVIDIA Jetson - Système sur module intégré hautes performances pour débloquer l'apprentissage profond, la vision par ordinateur, le calcul GPU et les graphiques dans des environnements réseau contraints.
- Jetson TX1
- Jetson TX2
- Jetson Nano
- Radio à intelligence artificielle - Émetteur-récepteur (AIR-T) - SDR hautes performances parfaitement intégré au matériel d'apprentissage en profondeur de pointe.
- Kendryte K210 - Puce RISC-V double cœur avec accélération du réseau neuronal convolutif utilisant 64 KLU (Kendryte Arithmetic Logic Unit).
- Sipeed M1 - Basé sur le Kendryte K210, le module ajoute une connectivité WiFi et une mémoire flash externe.
- M5StickV - Caméra AIoT (AI+IoT) alimentée par Kendryte K210
- UNIT-V - Caméra AI alimentée par Kendryte K210 (M5StickV bas de gamme)
- Kendryte K510 - Processeur RISC-V tri-core cadencé avec des accélérateurs IA.
- GreenWaves GAP8 - Puce basée sur RISC-V avec accélération matérielle pour les opérations convolutives.
- GreenWaves GAP9 - Puce basée sur RISC-V principalement axée sur le traitement audio centré sur l'IA.
- Ultra96 - Plateforme de développement embarquée dotée d'un FPGA Xilinx UltraScale+ MPSoC.
- Apollo3 Blue - Carte de développement SparkFun Edge alimentée par un Cortex M4 d'Ambiq Micro.
- Google Coral - Plateforme de composants matériels et d'outils logiciels pour les produits d'IA locaux basés sur le coprocesseur Google Edge TPU.
- Cartes de développement
- Accélérateurs USB
- Modules PCIe/M.2
- Gyrfalcon Technology Lighspeeur - Famille de puces optimisées pour l'informatique de pointe.
- ARM microNPU - Processeurs conçus pour accélérer l'inférence ML (le premier étant l'Ethos-U55).
- Espressif ESP32-S3 - SoC similaire au célèbre ESP32 avec prise en charge de l'accélération de l'IA (parmi de nombreuses autres différences intéressantes).
- Maxim MAX78000 - SoC basé sur un Cortex-M4 qui comprend un accélérateur CNN.
- Beagleboard BeagleV - Carte Linux Open Source basée sur RISC-V qui comprend un moteur de réseau neuronal.
- Syntiant TinyML - Kit de développement basé sur le processeur de décision neuronale Syntiant NDP101 et un SAMD21 Cortex-M0+.
- STM32N6 - Arm Cortex-M55 fonctionnant à 800 MHz et intégrant une unité de traitement neuronal (NPU).
Logiciel
- TensorFlow Lite : solution légère pour les appareils mobiles et embarqués qui permet l'inférence d'apprentissage automatique sur l'appareil avec une faible latence et une petite taille binaire.
- TensorFlow Lite pour microcontrôleurs - Port de TF Lite pour microcontrôleurs et autres appareils avec seulement des kilo-octets de mémoire. Né d'une fusion avec uTensor.
- Embedded Learning Library (ELL) : bibliothèque de Microsoft permettant de déployer des modèles intelligents d'apprentissage automatique sur des plates-formes à ressources limitées et de petits ordinateurs monocarte.
- uTensor - Bibliothèque d'inférence IA basée sur mbed (un RTOS pour les chipsets ARM) et TensorFlow.
- CMSIS NN - Une collection de noyaux de réseaux neuronaux efficaces développés pour maximiser les performances et minimiser l'empreinte mémoire des réseaux neuronaux sur les cœurs de processeur Cortex-M.
- Bibliothèque de calcul ARM - Ensemble de fonctions optimisées pour le traitement d'images, la vision par ordinateur et l'apprentissage automatique.
- Qualcomm Neural Processing SDK for AI - Les bibliothèques destinées aux développeurs exécutent des modèles NN sur les plates-formes mobiles Snapdragon en tirant parti du CPU, du GPU et/ou du DSP.
- ST X-CUBE-AI - Boîte à outils pour générer des NN optimisés pour les MCU STM32.
- ST NanoEdgeAIStudio - Outil qui génère un modèle à charger dans un MCU STM32.
- Réseau neuronal sur microcontrôleur (NNoM) - Bibliothèque de réseau neuronal basée sur des couches de niveau supérieur spécifiquement pour les microcontrôleurs. Prise en charge de CMSIS-NN.
- nncase - Pile de compilateur d'apprentissage profond ouverte pour l'accélérateur d'IA Kendryte K210.
- deepC - Compilateur d'apprentissage profond et cadre d'inférence destiné aux plates-formes embarquées.
- uTVM - MicroTVM est un outil open source pour optimiser les programmes tenseurs.
- Edge Impulse - Plateforme interactive pour générer des modèles pouvant fonctionner dans des microcontrôleurs. Ils sont également très actifs sur les réseaux sociaux et parlent de l'actualité récente sur EdgeAI/TinyML.
- Qeexo AutoML - Plateforme interactive pour générer des modèles d'IA destinés aux microcontrôleurs.
- mlpack - Bibliothèque d'apprentissage automatique rapide avec en-tête C++ uniquement qui se concentre sur un déploiement léger. Il dispose d'une grande variété d'algorithmes d'apprentissage automatique avec la possibilité de réaliser un apprentissage sur appareil sur les MPU.
- AIfES - cadre logiciel d'IA indépendant de la plate-forme et autonome optimisé pour les systèmes embarqués.
- onnx2c - Compilateur ONNX vers C ciblant "Tiny ML".
Autres ressources intéressantes
- Analyse comparative de l'Edge Computing (mai 2019)
- Benchmark matériel pour l'IA de pointe sur les cubesats - Open Source Cubesat Workshop 2018
- Pourquoi le Machine Learning à la périphérie ?
- Tutoriel : apprentissage profond à faible consommation sur la caméra OpenMV
- TinyML : apprentissage automatique avec TensorFlow sur Arduino et microcontrôleurs à très faible consommation - Livre O'Reilly écrit par Pete Warden, Daniel Situnayake.
- tinyML Summit - Conférence annuelle et rencontre mensuelle célébrées en Californie, aux États-Unis. Les exposés et les diapositives sont généralement disponibles sur le site Web.
- Articles et projets TinyML - Compilation des articles et projets les plus récents dans le domaine TinyML/EdgeAI.
- MinUn - Inférence ML précise sur les microcontrôleurs.
Contribuer
- Veuillez d'abord vérifier les doublons.
- Gardez les descriptions courtes, simples et impartiales.
- Veuillez prendre un engagement individuel pour chaque suggestion.
- Ajoutez une nouvelle catégorie si nécessaire.
Merci pour vos suggestions!
Licence
Dans la mesure du possible par la loi, Xabi Crespo a renoncé à tout droit d'auteur et droits voisins ou voisins sur cette œuvre.