KI am Rande
Eine kuratierte Liste von Hardware, Software, Frameworks und anderen Ressourcen für künstliche Intelligenz am Rande. Inspiriert von awesome-dataviz.
Inhalt
- Hardware
- Software
- Rahmenwerke
- Mitwirken
- Lizenz
Hardware
- OpenMV – Eine Kamera, die mit MicroPython auf ARM Cortex M6/M7 läuft und hervorragende Unterstützung für Computer-Vision-Algorithmen bietet. Jetzt auch mit Unterstützung für Tensorflow Lite.
- JeVois – Ein TensorFlow-fähiges Kameramodul.
- Edge TPU – Googles speziell entwickelter ASIC, der für die Ausführung von Inferenzen am Edge entwickelt wurde.
- Movidius – Intels SoC-Familie, die speziell für geräteinterne Computer-Vision- und neuronale Netzwerkanwendungen mit geringem Stromverbrauch entwickelt wurde.
- UP AI Edge – Produktlinie basierend auf Intel Movidius VPUs (einschließlich Myriad 2 und Myriad X) und Intel Cyclone FPGAs.
- DepthAI – Eine eingebettete Plattform zur Kombination von Tiefe und KI, basierend auf Myriad X
- NVIDIA Jetson – Hochleistungsfähiges eingebettetes System-on-Module zur Erschließung von Deep Learning, Computer Vision, GPU-Computing und Grafik in Umgebungen mit eingeschränktem Netzwerk.
- Jetson TX1
- Jetson TX2
- Jetson Nano
- Künstlicher Intelligenz-Radio-Transceiver (AIR-T) – Hochleistungs-SDR, nahtlos integriert mit modernster Deep-Learning-Hardware.
- Kendryte K210 – Dual-Core-RISC-V-Chip mit Faltungsbeschleunigung für neuronale Netzwerke unter Verwendung von 64 KLUs (Kendryte Arithmetic Logic Unit).
- Sipeed M1 – Basierend auf dem Kendryte K210 bietet das Modul WLAN-Konnektivität und einen externen Flash-Speicher.
- M5StickV – AIoT-Kamera (AI+IoT) mit Kendryte K210
- UNIT-V – KI-Kamera mit Kendryte K210 (M5StickV der unteren Preisklasse)
- Kendryte K510 – Tri-Core-RISC-V-Prozessor, getaktet mit KI-Beschleunigern.
- GreenWaves GAP8 – RISC-V-basierter Chip mit Hardwarebeschleunigung für Faltungsoperationen.
- GreenWaves GAP9 – RISC-V-basierter Chip, der sich hauptsächlich auf die KI-zentrierte Audioverarbeitung konzentriert.
- Ultra96 – Eingebettete Entwicklungsplattform mit einem Xilinx UltraScale+ MPSoC FPGA.
- Apollo3 Blue – SparkFun Edge-Entwicklungsboard mit Cortex M4 von Ambiq Micro.
- Google Coral – Plattform von Hardwarekomponenten und Softwaretools für lokale KI-Produkte basierend auf dem Google Edge TPU-Coprozessor.
- Entwicklerboards
- USB-Beschleuniger
- PCIe-/M.2-Module
- Gyrfalcon Technology Lighspeeur – Familie von Chips, die für Edge Computing optimiert sind.
- ARM microNPU – Prozessoren zur Beschleunigung der ML-Inferenz (der erste ist der Ethos-U55).
- Espressif ESP32-S3 – SoC ähnlich dem bekannten ESP32 mit Unterstützung für KI-Beschleunigung (neben vielen anderen interessanten Unterschieden).
- Maxim MAX78000 – SoC basierend auf einem Cortex-M4, der einen CNN-Beschleuniger enthält.
- Beagleboard BeagleV – Open-Source-RISC-V-basiertes Linux-Board, das eine Neural Network Engine enthält.
- Syntiant TinyML – Entwicklungskit basierend auf dem Syntiant NDP101 Neural Decision Processor und einem SAMD21 Cortex-M0+.
- STM32N6 – Arm Cortex-M55 mit 800 MHz und integrierter neuronaler Verarbeitungseinheit (NPU).
Software
- TensorFlow Lite – Leichte Lösung für mobile und eingebettete Geräte, die maschinelles Lernen auf dem Gerät mit geringer Latenz und kleiner Binärgröße ermöglicht.
- TensorFlow Lite für Mikrocontroller – Port von TF Lite für Mikrocontroller und andere Geräte mit nur Kilobyte Speicher. Entstanden aus einer Fusion mit uTensor.
- Embedded Learning Library (ELL) – Microsofts Bibliothek zur Bereitstellung intelligenter maschinell erlernter Modelle auf ressourcenbeschränkten Plattformen und kleinen Einplatinencomputern.
- uTensor – KI-Inferenzbibliothek basierend auf mbed (ein RTOS für ARM-Chipsätze) und TensorFlow.
- CMSIS NN – Eine Sammlung effizienter neuronaler Netzwerkkerne, die entwickelt wurden, um die Leistung zu maximieren und den Speicherbedarf neuronaler Netzwerke auf Cortex-M-Prozessorkernen zu minimieren.
- ARM Compute Library – Satz optimierter Funktionen für Bildverarbeitung, Computer Vision und maschinelles Lernen.
- Qualcomm Neural Processing SDK für KI – Bibliotheken für Entwickler führen NN-Modelle auf mobilen Snapdragon-Plattformen aus und nutzen dabei die CPU, GPU und/oder DSP.
- ST X-CUBE-AI – Toolkit zur Generierung von NN, optimiert für STM32-MCUs.
- ST NanoEdgeAIStudio – Tool, das ein Modell generiert, das in eine STM32-MCU geladen werden soll.
- Neural Network on Microcontroller (NNoM) – Bibliothek für neuronale Netzwerke auf Basis höherer Schichten, speziell für Mikrocontroller. Unterstützung für CMSIS-NN.
- nncase – Offener Deep-Learning-Compiler-Stack für den KI-Beschleuniger Kendryte K210.
- deepC – Deep-Learning-Compiler und Inferenz-Framework für eingebettete Plattformen.
- uTVM – MicroTVM ist ein Open-Source-Tool zur Optimierung von Tensorprogrammen.
- Edge Impulse – Interaktive Plattform zur Generierung von Modellen, die in Mikrocontrollern ausgeführt werden können. Sie sind auch in sozialen Netzwerken recht aktiv und sprechen über aktuelle Neuigkeiten zu EdgeAI/TinyML.
- Qeexo AutoML – Interaktive Plattform zur Generierung von KI-Modellen für Mikrocontroller.
- mlpack – Nur C++-Header enthaltende, schnelle Bibliothek für maschinelles Lernen, die sich auf eine einfache Bereitstellung konzentriert. Es verfügt über eine Vielzahl von Algorithmen für maschinelles Lernen mit der Möglichkeit, On-Device-Learning auf MPUs zu realisieren.
- AIfES – plattformunabhängiges und eigenständiges KI-Software-Framework, optimiert für eingebettete Systeme.
- onnx2c – ONNX-zu-C-Compiler für „Tiny ML“.
Weitere interessante Ressourcen
- Benchmarking Edge Computing (Mai 2019)
- Hardware-Benchmark für Edge-KI auf Cubesats – Open Source Cubesat Workshop 2018
- Warum maschinelles Lernen am Rande?
- Tutorial: Low Power Deep Learning auf der OpenMV Cam
- TinyML: Maschinelles Lernen mit TensorFlow auf Arduino und Ultra-Low-Power-Mikrocontrollern – O'Reilly-Buch geschrieben von Pete Warden, Daniel Situnayake.
- tinyML Summit – Jahreskonferenz und monatliches Treffen in Kalifornien, USA. Vorträge und Folien sind normalerweise auf der Website verfügbar.
- TinyML-Papiere und -Projekte – Zusammenstellung der neuesten Papiere und Projekte im TinyML/EdgeAI-Bereich.
- MinUn – Genaue ML-Inferenz auf Mikrocontrollern.
Mitwirken
- Bitte prüfen Sie zunächst, ob es Duplikate gibt.
- Halten Sie die Beschreibungen kurz, einfach und unvoreingenommen.
- Bitte geben Sie für jeden Vorschlag eine individuelle Zusage ab.
- Fügen Sie bei Bedarf eine neue Kategorie hinzu.
Vielen Dank für Ihre Vorschläge!
Lizenz
Soweit gesetzlich möglich, hat Xabi Crespo auf alle Urheberrechte und verwandten oder benachbarten Rechte an diesem Werk verzichtet.