IA no limite
Uma lista selecionada de hardware, software, estruturas e outros recursos para Inteligência Artificial na borda. Inspirado em incrível-dataviz.
Conteúdo
- Hardware
- Programas
- Estruturas
- Contribuindo
- Licença
Hardware
- OpenMV - Uma câmera que roda com MicroPython em ARM Cortex M6/M7 e excelente suporte para algoritmos de visão computacional. Agora também com suporte para Tensorflow Lite.
- JeVois – Um módulo de câmera habilitado para TensorFlow.
- Edge TPU – ASIC desenvolvido especificamente pelo Google, projetado para executar inferências na borda.
- Movidius - família de SoCs da Intel projetada especificamente para visão computacional em dispositivos de baixo consumo e aplicações de rede neural.
- UP AI Edge - Linha de produtos baseados em VPUs Intel Movidius (incluindo Myriad 2 e Myriad X) e FPGAs Intel Cyclone.
- DepthAI – Uma plataforma incorporada para combinar profundidade e IA, construída em torno do Myriad X
- NVIDIA Jetson – Sistema integrado em módulo de alto desempenho para desbloquear aprendizado profundo, visão computacional, computação GPU e gráficos em ambientes com restrições de rede.
- Jetson TX1
- Jetson TX2
- Jetson Nano
- Rádio de Inteligência Artificial - Transceptor (AIR-T) - SDR de alto desempenho perfeitamente integrado com hardware de aprendizagem profunda de última geração.
- Kendryte K210 - Chip RISC-V dual-core com aceleração de rede neural convolucional usando 64 KLUs (Kendryte Arithmetic Logic Unit).
- Sipeed M1 - Baseado no Kendryte K210, o módulo adiciona conectividade WiFi e memória flash externa.
- M5StickV - Câmera AIoT (AI + IoT) desenvolvida por Kendryte K210
- UNIT-V - Câmera AI alimentada por Kendryte K210 (M5StickV inferior)
- Kendryte K510 - Processador RISC-V tri-core com clock de aceleradores AI.
- GreenWaves GAP8 - Chip baseado em RISC-V com aceleração de hardware para operações convolucionais.
- GreenWaves GAP9 - chip baseado em RISC-V focado principalmente no processamento de áudio centrado em IA.
- Ultra96 - Plataforma de desenvolvimento embarcada com Xilinx UltraScale+ MPSoC FPGA.
- Apollo3 Blue - Placa de desenvolvimento SparkFun Edge alimentada por um Cortex M4 da Ambiq Micro.
- Google Coral – Plataforma de componentes de hardware e ferramentas de software para produtos locais de IA baseados no coprocessador Google Edge TPU.
- Quadros de desenvolvimento
- Aceleradores USB
- Módulos PCIe/M.2
- Gyrfalcon Technology Lighspeeur - Família de chips otimizados para computação de ponta.
- ARM microNPU - Processadores projetados para acelerar a inferência de ML (sendo o primeiro o Ethos-U55).
- Espressif ESP32-S3 - SoC semelhante ao conhecido ESP32 com suporte para aceleração AI (entre muitas outras diferenças interessantes).
- Maxim MAX78000 - SoC baseado em Cortex-M4 que inclui acelerador CNN.
- Beagleboard BeagleV - Placa Linux de código aberto baseada em RISC-V que inclui um mecanismo de rede neural.
- Syntiant TinyML - Kit de desenvolvimento baseado no processador de decisão neural Syntiant NDP101 e em um SAMD21 Cortex-M0+.
- STM32N6 - Arm Cortex-M55 rodando a 800 MHz que incorpora uma unidade de processamento neural (NPU).
Programas
- TensorFlow Lite: solução leve para dispositivos móveis e incorporados que permite inferência de aprendizado de máquina no dispositivo com baixa latência e tamanho binário pequeno.
- TensorFlow Lite para Microcontroladores – Porta do TF Lite para microcontroladores e outros dispositivos com apenas kilobytes de memória. Nasceu de uma fusão com o uTensor.
- Biblioteca de aprendizagem incorporada (ELL) - biblioteca da Microsoft para implantar modelos inteligentes aprendidos por máquina em plataformas com recursos limitados e pequenos computadores de placa única.
- uTensor - biblioteca de inferência de IA baseada em mbed (um RTOS para chipsets ARM) e TensorFlow.
- CMSIS NN - Uma coleção de kernels de redes neurais eficientes desenvolvidos para maximizar o desempenho e minimizar o consumo de memória de redes neurais em núcleos de processadores Cortex-M.
- ARM Compute Library - Conjunto de funções otimizadas para processamento de imagens, visão computacional e aprendizado de máquina.
- SDK de processamento neural da Qualcomm para IA – Bibliotecas para desenvolvedores executam modelos NN em plataformas móveis Snapdragon aproveitando a CPU, GPU e/ou DSP.
- ST X-CUBE-AI - Kit de ferramentas para geração de NN otimizado para MCUs STM32.
- ST NanoEdgeAIStudio - Ferramenta que gera um modelo para ser carregado em um MCU STM32.
- Rede Neural em Microcontrolador (NNoM) - Biblioteca de Rede Neural baseada em camadas de nível superior especificamente para microcontroladores. Suporte para CMSIS-NN.
- nncase - Abra a pilha do compilador de aprendizado profundo para o acelerador Kendryte K210 AI.
- deepC - Compilador de aprendizagem profunda e estrutura de inferência direcionada para plataforma embarcada.
- uTVM - MicroTVM é uma ferramenta de código aberto para otimizar programas tensores.
- Edge Impulse – Plataforma interativa para geração de modelos que podem rodar em microcontroladores. Eles também são bastante ativos nas redes sociais falando sobre novidades recentes no EdgeAI/TinyML.
- Qeexo AutoML – Plataforma interativa para geração de modelos de IA direcionados a microcontroladores.
- mlpack - biblioteca de aprendizado de máquina rápido somente de cabeçalho C++ que se concentra na implantação leve. Possui uma ampla variedade de algoritmos de aprendizado de máquina com a possibilidade de realizar aprendizado no dispositivo em MPUs.
- AIfES - estrutura de software de IA autônoma e independente de plataforma, otimizada para sistemas embarcados.
- onnx2c - compilador ONNX para C direcionado a "Tiny ML".
Outros recursos interessantes
- Benchmarking de computação de ponta (maio de 2019)
- Benchmark de hardware para IA de ponta em cubesats - Open Source Cubesat Workshop 2018
- Por que o aprendizado de máquina no Edge?
- Tutorial: Aprendizado profundo de baixo consumo de energia na câmera OpenMV
- TinyML: aprendizado de máquina com TensorFlow em Arduino e microcontroladores de potência ultrabaixa - livro de O'Reilly escrito por Pete Warden, Daniel Situnayake.
- tinyML Summit - Conferência anual e encontro mensal celebrado na Califórnia, EUA. Palestras e slides geralmente estão disponíveis no site.
- Artigos e projetos TinyML - Compilação dos artigos e projetos mais recentes na área TinyML/EdgeAI.
- MinUn - Inferência precisa de ML em microcontroladores.
Contribuindo
- Verifique primeiro se há duplicatas.
- Mantenha as descrições curtas, simples e imparciais.
- Por favor, faça um commit individual para cada sugestão.
- Adicione uma nova categoria, se necessário.
Obrigado por suas sugestões!
Licença
Na medida do possível por lei, Xabi Crespo renunciou a todos os direitos autorais e direitos conexos ou conexos a esta obra.