Marco de detección de objetos Darknet y YOLO
Logotipos de !darknet y hank.ai
Darknet es un marco de red neuronal de código abierto escrito en C, C++ y CUDA.
YOLO (Solo miras una vez) es un sistema de detección de objetos en tiempo real de última generación que se ejecuta dentro del marco Darknet.
Lea cómo Hank.ai ayuda a la comunidad Darknet/YOLO
Anuncio de Darknet V3 "Jazz"
Visita el sitio web de Darknet/YOLO
Lea las preguntas frecuentes sobre Darknet/YOLO
Únase al servidor Darknet/YOLO Discord
Papeles
1. Papel YOLOv7
2. Escala de papel-YOLOv4
3. Papel YOLOv4
4. Papel YOLOv3
Información general
El marco Darknet/YOLO es más rápido y preciso que otros marcos y versiones de YOLO.
El marco es completamente gratuito y de código abierto. Puede integrar Darknet/YOLO en proyectos y productos existentes, incluidos productos comerciales, sin licencias ni tarifas.
Darknet V3 ("Jazz"), lanzado en octubre de 2024, puede ejecutar con precisión videos del conjunto de datos LEGO a hasta 1000 FPS cuando se usa una GPU NVIDIA RTX 3090, lo que significa que cada cuadro de video se puede procesar en 1 milisegundo o leer, cambiar de tamaño y procesar mediante Darknet. /YOLO en menos tiempo.
Si necesita ayuda o quiere hablar sobre Darknet/YOLO, únase al servidor Darknet/YOLO Discord: https://discord.gg/zSq8rtW
La versión CPU de Darknet/YOLO puede ejecutarse en dispositivos simples como Raspberry Pi, servidores en la nube y colab, computadoras de escritorio, portátiles y plataformas de capacitación de alta gama. La versión GPU de Darknet/YOLO requiere la GPU compatible con CUDA de NVIDIA.
Se sabe que Darknet/YOLO se ejecuta en Linux, Windows y Mac. Consulte las instrucciones de construcción a continuación.
Versión de la red oscura
Las herramientas Darknet originales, escritas por Joseph Redmon entre 2013 y 2017, no tenían números de versión. Consideramos esta versión 0.x.
El próximo repositorio popular de Darknet mantenido por Alexey Bochkovskiy entre 2017 y 2021 tampoco tiene un número de versión. Consideramos esta versión 1.x.
El repositorio Darknet, patrocinado por Hank.ai y mantenido por Stéphane Charette desde 2023, es el primero en tener un comando de versión. Desde 2023 hasta finales de 2024 vuelve a la versión 2.x “OAK”.
El objetivo es romper la funcionalidad existente lo menos posible mientras nos familiarizamos con el código base.
Vuelva a escribir los pasos de compilación para que tengamos una forma unificada de compilar en Windows y Linux usando CMake.
Convierta el código base para utilizar un compilador de C++.
Chart.png mejorado durante el entrenamiento.
Corrección de errores y optimizaciones relacionadas con el rendimiento, principalmente relacionadas con la reducción del tiempo necesario para entrenar la red.
La última rama de este código base es la versión 2.1 en la rama v2.
La siguiente fase de desarrollo comienza a mediados de 2024 y se lanzará en octubre de 2024. El comando de versión ahora devuelve 3.x "JAZZ".
Se eliminaron muchos comandos antiguos y no mantenidos.
Muchas optimizaciones de rendimiento, tanto en el momento del entrenamiento como en el momento de la inferencia.
La API C tradicional ha sido modificada; las aplicaciones que utilizan la API Darknet original requieren modificaciones menores: https://darknetcv.ai/api/api.html
Nueva API Darknet V3 C y C++: https://darknetcv.ai/api/api.html
Nuevas aplicaciones y código de muestra en src-examples: https://darknetcv.ai/api/files.html
Si necesita ejecutar uno de estos comandos, siempre puede consultar la rama v2 anterior. Háganos saber para que podamos investigar cómo volver a agregar los comandos que faltan.
Pesas preentrenadas MSCOCO
Para mayor comodidad, varias versiones populares de YOLO están previamente entrenadas en el conjunto de datos MSCOCO. Este conjunto de datos contiene 80 categorías y se puede ver en el archivo de texto cfg/coco.names.
Hay varios otros conjuntos de datos más simples y pesos previamente entrenados disponibles para probar Darknet/YOLO, como LEGO Gears y Rolodex. Para obtener más información, consulte las preguntas frecuentes sobre Darknet/YOLO.
Los pesos previamente entrenados de MSCOCO se pueden descargar desde varias ubicaciones diferentes o desde este repositorio:
1. YOLOv2, noviembre de 2016
* YOLOv2-pequeño
*YOLOv2-completo
2. YOLOv3, mayo de 2018
* YOLOv3-pequeño
*YOLOv3-completo
3. YOLOv4, mayo de 2020
* YOLOv4-pequeño
*YOLOv4-completo
4. YOLOv7, agosto de 2022
* YOLOv7-pequeño
*YOLOv7-completo
Las pesas previamente entrenadas de MSCOCO tienen fines de demostración únicamente. Los archivos .cfg y .names correspondientes a MSCOCO se encuentran en el directorio cfg. Comando de ejemplo:
`golpear
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights
darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
DarkHelp coco.nombres yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
DarkHelp coco.nombres yolov4-tiny.cfg yolov4-tiny.pesos video1.avi
`
Tenga en cuenta que uno debe entrenar su propia red. MSCOCO se utiliza a menudo para confirmar que todo está bien.
construir
Los distintos métodos de construcción disponibles en el pasado (antes de 2023) se han fusionado en una solución unificada. Darknet requiere C++ 17 o superior, OpenCV y usar CMake para generar los archivos de proyecto necesarios.
No necesitas saber C++ para construir, instalar o ejecutar Darknet/YOLO más de lo que necesitas ser mecánico para conducir un automóvil.
Tenga en cuenta si está siguiendo un tutorial anterior que tiene pasos de compilación más complejos o si los pasos de compilación no coinciden con los de este archivo Léame. A partir de agosto de 2023, los nuevos pasos de compilación se describen a continuación.
Se anima a los desarrolladores de software a visitar https://darknetcv.ai/ para obtener más información sobre los aspectos internos del marco de detección de objetos Darknet/YOLO.
colaboración de google
Las instrucciones de Google Colab son las mismas que las de Linux. Hay varios cuadernos de Jupyter que muestran cómo realizar determinadas tareas, como entrenar nuevas redes.
Consulte el cuaderno en el subdirectorio colab o siga las instrucciones de Linux a continuación.
Método CMake de Linux
Tutorial de compilación de Darknet para Linux
Opcional: si tiene una GPU NVIDIA moderna, puede instalar CUDA o CUDA+cuDNN en este momento. Si está instalado, Darknet utilizará su GPU para acelerar el procesamiento de imágenes (y videos).
Debe eliminar el archivo CMakeCache.txt del directorio de compilación de Darknet para obligar a CMake a volver a encontrar todos los archivos necesarios.
Recuerda reconstruir Darknet.
Darknet puede ejecutarse sin él, pero si desea entrenar una red personalizada, necesita CUDA o CUDA+cuDNN.
Visite https://developer.nvidia.com/cuda-downloads para descargar e instalar CUDA.
Visite https://developer.nvidia.com/rdp/cudnn-download o https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview para descargar e Instale cuDNN.
Después de instalar CUDA, asegúrese de poder ejecutar nvcc y nvidia-smi. Es posible que deba modificar la variable PATH.
Si instala CUDA o CUDA+cuDNN más adelante, o si actualiza a una versión más reciente del software NVIDIA:
Estas instrucciones asumen (¡pero no requieren!) un sistema que ejecuta Ubuntu 22.04. Si utiliza otra distribución, ajuste según sea necesario.
`golpear
sudo apt-get install build-essential git libopencv-dev cmake
mkdir ~/srccd ~/src
clon de git https://github.com/hank-ai/darknet
cd red oscura
compilación mkdir
compilación de cd
cmake -DCMAKEBUILDTYPE=Lanzar ..
hacer el paquete -j4
sudo dpkg -i darknet-VERSIÓN.deb
`
Si está utilizando una versión anterior de CMake, deberá actualizar CMake antes de ejecutar el comando cmake anterior. La actualización de CMake en Ubuntu se puede realizar usando el siguiente comando:
`golpear
sudo apt-get purga cmake
sudo snap instalar cmake --classic
`
Si está utilizando bash como su shell de comandos, deberá reiniciar su shell en este punto. Si utiliza pescado, debería seguir el nuevo camino inmediatamente.
Usuarios avanzados:
Si desea crear un archivo de instalación RPM en lugar de un archivo DEB, consulte las líneas relevantes en CM_package.cmake. Antes de ejecutar el paquete make -j4 necesitas editar estas dos líneas:
`cmake
ESTABLECER (CPACKGENERATOR "DEB")# ESTABLECER (CPACKGENERATOR "RPM")
`
Para distribuciones como Centos y OpenSUSE, debe cambiar estas dos líneas en CM_package.cmake a:
`cmake
ESTABLECER (CPACK_GENERATOR "DEB")
ESTABLECER (CPACK_GENERATOR "RPM")
`
Para instalar un paquete, utilice el administrador de paquetes habitual de su distribución. Por ejemplo, en un sistema basado en Debian como Ubuntu:
`golpear
sudo dpkg -i darknet-2.0.1-Linux.deb
`
La instalación del paquete .deb copiará los siguientes archivos:
/usr/bin/darknet es el ejecutable habitual de Darknet. Ejecute la versión darknet desde la CLI para confirmar que esté instalada correctamente.
/usr/include/darknet.h es la API Darknet, utilizada por desarrolladores de C, C++ y Python.
/usr/include/darknet_version.h contiene información de versión para desarrolladores.
/usr/lib/libdarknet.so es una biblioteca para vincular desarrolladores de C, C++ y Python.
/opt/darknet/cfg/... es donde se almacenan todas las plantillas .cfg.
¡Ya terminaste! Darknet está construido e instalado en /usr/bin/. Ejecute el siguiente comando para probar: versión darknet.
Si no tienes /usr/bin/darknet, no lo instalaste, ¡simplemente lo compilaste! Asegúrese de instalar el archivo .deb o .rpm como se describe arriba.
Métodos de Windows CMake
Estas instrucciones asumen una nueva instalación de Windows 11 22H2.
Abra una ventana normal del símbolo del sistema cmd.exe y ejecute el siguiente comando:
`golpear
instalación de alas Git.Git
Instalación de Winget Kitware.CMake
instalación de alas nsis.nsis
Winget instala Microsoft.VisualStudio.2022.Community
`
En este punto, necesitamos modificar la instalación de Visual Studio para incluir soporte para aplicaciones C++:
Haga clic en el menú Inicio de Windows y ejecute el instalador de Visual Studio
Haga clic en "Editar"
Seleccione "Desarrollo de escritorio usando C++"
Haga clic en "Editar" en la esquina inferior derecha, luego haga clic en "Sí"
Una vez que todo esté descargado e instalado, haga clic nuevamente en el menú Inicio de Windows y seleccione Símbolo del sistema para desarrolladores para Visual Studio 2022. ¡No utilice PowerShell para estos pasos, tendrá problemas!
Usuarios avanzados:
En lugar de ejecutar un símbolo del sistema del desarrollador, puede iniciar sesión en el dispositivo usando un símbolo del sistema normal o ssh y ejecutar manualmente "Archivos de programa Microsoft Visual Studio2022 CommunityCommon7ToolsVsDevCmd.bat".
Una vez que tenga el símbolo del sistema del desarrollador ejecutándose como se indica arriba (¡no PowerShell!), ejecute el siguiente comando para instalar Microsoft VCPKG, que se utilizará para compilar OpenCV:
`golpear
Centros para el Control y la Prevención de Enfermedades:
mkdir c:srccd c:src
clon de git https://github.com/microsoft/vcpkg
cd vcpkg
arranque-vcpkg.bat
.vcpkg.exe instalación integrada
.vcpkg.exe integra powershell.vcpkg.exe instala opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
Tenga paciencia con este último paso, ya que puede tardar mucho en ejecutarse. Requiere mucha descarga y compilación.
Usuarios avanzados:
Tenga en cuenta que hay muchos otros módulos opcionales que quizás desee agregar al crear OpenCV. Ejecute .vcpkg.exe y busque opencv para ver la lista completa.
Opcional: si tiene una GPU NVIDIA moderna, puede instalar CUDA o CUDA+cuDNN en este momento. Si está instalado, Darknet utilizará su GPU para acelerar el procesamiento de imágenes (y videos).
Debe eliminar el archivo CMakeCache.txt del directorio de compilación de Darknet para obligar a CMake a volver a encontrar todos los archivos necesarios.
Recuerda reconstruir Darknet.
Darknet puede ejecutarse sin él, pero si desea entrenar una red personalizada, necesita CUDA o CUDA+cuDNN.
Visite https://developer.nvidia.com/cuda-downloads para descargar e instalar CUDA.
Visite https://developer.nvidia.com/rdp/cudnn-download o https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows para descargar e instalar cuDNN.
Después de instalar CUDA, asegúrese de poder ejecutar nvcc.exe y nvidia-smi.exe. Es posible que deba modificar la variable PATH.
Después de descargar cuDNN, descomprima y copie los directorios bin, include y lib en C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/[versión]/. Es posible que necesites sobrescribir algunos archivos.
Si instala CUDA o CUDA+cuDNN más adelante, o si actualiza a una versión más reciente del software NVIDIA:
CUDA debe instalarse después de Visual Studio. Si actualiza Visual Studio, recuerde reinstalar CUDA.
Una vez que todos los pasos anteriores se hayan completado con éxito, deberá clonar Darknet y compilarlo. En este paso también necesitamos decirle a CMake dónde se encuentra vcpkg para que pueda encontrar OpenCV y otras dependencias:
`golpear
cdc:src
clon de git https://github.com/hank-ai/darknet.git
cd red oscura
compilación mkdir
compilación de cd
cmake -DCMAKEBUILDTYPE=Versión -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake ..
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
msbuild.exe /property:Platform=x64;Configuration=Versión PACKAGE.vcxproj
`
Si recibe un error acerca de que falta alguna DLL CUDA o cuDNN (por ejemplo, cublas64_12.dll), copie manualmente el archivo CUDA .dll en el mismo directorio de salida que Darknet.exe. Por ejemplo:
`golpear
copie "C:Archivos de programaNVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll" src-cliRelease
`
(¡Este es un ejemplo! Verifique qué versión está ejecutando y ejecute el comando apropiado para la versión que ha instalado).
Después de copiar los archivos, vuelva a ejecutar el último comando msbuild.exe para generar el paquete de instalación de NSIS:
`golpear
msbuild.exe /property:Platform=x64;Configuration=Versión PACKAGE.vcxproj
`
Usuarios avanzados:
Tenga en cuenta que la salida del comando cmake es el archivo de solución normal de Visual Studio Darknet.sln. Si es un desarrollador de software que utiliza habitualmente la GUI de Visual Studio en lugar de msbuild.exe para crear proyectos, puede ignorar la línea de comando y cargar el proyecto Darknet en Visual Studio.
Ahora debería tener este archivo listo para ejecutar: C:srcDarknetbuildsrc-cliReleasedarknet.exe. Ejecute el siguiente comando para probar: C:srcDarknetbuildsrc-cliReleasedarknet.exe versión.
Para instalar correctamente Darknet, bibliotecas, archivos de inclusión y DLL necesarios, ejecute el asistente de instalación de NSIS integrado en el último paso. Vea el archivo darknet-VERSION.exe en el directorio de compilación. Por ejemplo:
`golpear
darknet-2.0.31-win64.exe
`
La instalación del paquete de instalación de NSIS:
Cree un directorio llamado Darknet, por ejemplo C:Program FilesDarknet.
Instale la aplicación CLI darknet.exe y otras aplicaciones de muestra.
Instale los archivos .dll de terceros necesarios, como los de OpenCV.
Instale los archivos Darknet .dll, .lib y .h necesarios para usar darknet.dll desde otras aplicaciones.
Instale el archivo de plantilla .cfg.
¡Ya terminaste! Una vez completado el asistente de instalación, Darknet se instalará en C:Program FilesDarknet. Ejecute el siguiente comando para probar: C: Archivos de programa Versión Darknetbindarknet.exe.
Si no tiene C:/Program Files/darknet/bin/darknet.exe, no lo instaló, ¡simplemente lo creó! Asegúrese de completar cada panel del Asistente de instalación de NSIS en los pasos anteriores.
Usando la red oscura
CLI
La siguiente no es una lista completa de todos los comandos admitidos por Darknet.
Además de la CLI de Darknet, también tenga en cuenta la CLI del proyecto DarkHelp, que proporciona una CLI alternativa para Darknet/YOLO. DarkHelp CLI también tiene varias funciones avanzadas que no están disponibles directamente en Darknet. Puede utilizar la CLI de Darknet y la CLI de DarkHelp juntas; no se excluyen mutuamente.
Para la mayoría de los comandos que se muestran a continuación, necesitará el archivo .weights y sus archivos .names y .cfg correspondientes. Puede entrenar su propia red (¡muy recomendable!) o descargar redes que otros hayan entrenado y puesto a disposición de Internet de forma gratuita. Ejemplos de conjuntos de datos previos al entrenamiento incluyen:
1. LEGO Gears (busca objetos en imágenes)
2. Rolodex (buscar texto en la imagen)
3. MSCOCO (detección de objetivos estándar de categoría 80)
Los comandos ejecutables incluyen:
Enumere algunos comandos y opciones que se pueden ejecutar:
`golpear
ayuda de la red oscura
`
Verificar versión:
`golpear
versión de la red oscura
`
Utilice predicción de imágenes:
V2: prueba del detector de red oscura cars.data cars.cfg cars_best.weights image1.jpg
V3: darknet02displayannotatedimages cars.cfg image1.jpg
DarkHelp: DarkHelp cars.cfg cars.cfg cars_best.weights imagen1.jpg
Coordenadas de salida:
V2: prueba del detector de red oscura animales.datos animales.cfg animalesbest.weights -extoutput dog.jpg
V3: darknet01inference_images animales perro.jpg
DarkHelp: DarkHelp --json animales.cfg animales.nombres animales_mejor.pesos perro.jpg
Vídeo de procesamiento:
V2: demostración del detector de red oscura animales.datos animales.cfg animalesbest.weights -extoutput test.mp4
V3: darknet03display_videos animales.cfg prueba.mp4
DarkHelp: DarkHelp animales.cfg animales.nombres animales_mejores.pesos prueba.mp4
Leyendo desde la cámara web:
V2: demostración del detector de red oscura animales.data animales.cfg animales_best.weights -c 0
V3: darknet08display_webcam animales
Guardar resultados en vídeo:
V2: demostración del detector de red oscura animales.datos animales.cfg animalesbest.pesos prueba.mp4 -outfilename res.avi
V3: darknet05processvideosmultithreaded animales.cfg animales.nombres animales_mejores.pesos prueba.mp4
DarkHelp: DarkHelp animales.cfg animales.nombres animales_mejores.pesos prueba.mp4
JSON:
V2: demostración del detector de red oscura animales.datos animales.cfg animalesbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson animales image1.jpg
DarkHelp: DarkHelp --json animales.nombres animales.cfg animales_mejor.pesos imagen1.jpg
Ejecutar en una GPU específica:
V2: demostración del detector de red oscura animales.data animales.cfg animales_best.weights -i 1 test.mp4
Verifique la precisión de la red neuronal:
`golpear
Mapa del detector de darknet conducción.datos conducción.cfg conducción_mejor.pesos...
`
`
Id. Nombre AvgPrecision TP FN FP TN Precisión ErrorRate Precisión Recuperación Especificidad FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ---------- ----------
0 vehículo 91,2495 32648 3903 5826 65129 0,9095 0,0905 0,8486 0,8932 0,9179 0,0821
1 motocicleta 80,4499 2936 513 569 5393 0,8850 0,1150 0,8377 0,8513 0,9046 0,0954
2 bicicletas 89,0912 570 124 104 3548 0,9475 0,0525 0,8457 0,8213 0,9715 0,0285
3 personas 76,7937 7072 1727 2574 27523 0,8894 0,1106 0,7332 0,8037 0,9145 0,0855
4 muchos vehículos 64,3089 1068 509 733 11288 0,9087 0,0913 0,5930 0,6772 0,9390 0,0610
5 luz verde 86,8118 1969 239 510 4116 0,8904 0,1096 0,7943 0,8918 0,8898 0,1102
6 luz amarilla 82,0390 126 38 30 1239 0,9525 0,0475 0,8077 0,7683 0,9764 0,0236
7 luz roja 94,1033 3449 217 451 4643 0,9237 0,0763 0,8844 0,9408 0,9115 0,0885
`
Verifique la precisión mAP@IoU=75:
`golpear
Mapa del detector de darknet animales.datos animales.cfg animalesbest.weights -iouthresh 0,75
`
Es mejor volver a calcular los puntos de anclaje en DarkMark, ya que se ejecutará 100 veces seguidas y seleccionará el mejor punto de anclaje de todos los puntos de anclaje calculados. Sin embargo, si deseas ejecutar una versión anterior en Darknet:
`golpear
detector de red oscura calcanchors animales.data -numof_clusters 6 -ancho 320 -alto 256
`
Entrene una nueva red:
`golpear
detector de red oscura -mapa -dont_show entrenar animales.datos animales.cfg
`
(Consulte también la sección de capacitación a continuación)
tren
Enlaces rápidos a secciones relevantes en las preguntas frecuentes de Darknet/YOLO:
1. ¿Cómo debo configurar mis archivos y directorios?
2. ¿Qué perfil debo utilizar?
3. ¿Qué comando debo usar al entrenar mi propia red?
Usar DarkMark para crear todos los archivos Darknet necesarios es la forma más sencilla de realizar anotaciones y entrenar. Esta es definitivamente la forma recomendada de entrenar nuevas redes neuronales.
Si desea configurar manualmente los distintos archivos para entrenar una red personalizada:
1. Cree una nueva carpeta para almacenar los archivos. En este ejemplo, creará una red neuronal que detecta animales, así que cree el siguiente directorio: ~/nn/animals/.
2. Copie uno de los archivos de configuración de Darknet que desee utilizar como plantilla. Por ejemplo, consulte cfg/yolov4-tiny.cfg. Colóquelo en la carpeta que creó. En este ejemplo, ahora tenemos ~/nn/animals/animals.cfg.
3. Cree un archivo de texto animales.names en la misma carpeta donde colocó el archivo de configuración. En este ejemplo, ahora tenemos ~/nn/animals/animals.names.
4. Utilice un editor de texto para editar el archivo animales.nombres. Enumere las categorías que desea utilizar. Debe tener exactamente 1 entrada por línea, sin líneas en blanco ni comentarios. En este ejemplo, el archivo .names contendrá exactamente 4 líneas:
`
perro
gato
pájaro
caballo
`
5. Cree un archivo de texto animales.data en la misma carpeta. En este ejemplo, el archivo .data contendrá:
`
clases=4
tren=/home/nombre de usuario/nn/animals/animals_train.txt
valid=/home/nombre de usuario/nn/animals/animals_valid.txt
nombres=/home/nombredeusuario/nn/animals/animals.nombres
copia de seguridad=/home/nombre de usuario/nn/animales
`
6. Cree una carpeta para almacenar sus imágenes y anotaciones. Por ejemplo, esto podría ser ~/nn/animals/dataset. Cada imagen requiere un archivo .txt correspondiente que describa las anotaciones de esa imagen. El formato de los archivos de comentarios .txt es muy específico. No puede crear estos archivos manualmente porque cada anotación debe contener las coordenadas precisas de la anotación. Consulte DarkMark u otro software similar para anotar sus imágenes. El formato de anotación de YOLO se describe en las preguntas frecuentes de Darknet/YOLO.
7. Cree archivos de texto "entrenables" y "válidos" nombrados en el archivo .data. Estos dos archivos de texto deben enumerar todas las imágenes que Darknet debe usar para entrenamiento y validación, respectivamente, para la validación al calcular el% de mAP. Hay exactamente una imagen por fila. Las rutas y los nombres de archivos pueden ser relativos o absolutos.
8. Utilice un editor de texto para modificar su archivo .cfg.
* Asegúrese de que el lote sea = 64.
*Presta atención a las subdivisiones. Dependiendo del tamaño de la red y la cantidad de memoria disponible en la GPU, es posible que necesites aumentar las subdivisiones. El mejor valor para usar es 1, así que comience con eso. Si no puede utilizar 1, consulte las preguntas frecuentes de Darknet/YOLO.
Tenga en cuenta que maxbatches=.... Al comenzar, el valor óptimo a usar es un número de clases de 2000. En este ejemplo tenemos 4 animales, entonces 4 * 2000 = 8000. Esto significa que usaremos maxbatches=8000.
* Nota pasos=.... Esto debe establecerse en 80% y 90% de los lotes máximos. En este ejemplo, usaremos pasos = 6400,7200 ya que maxbatches está configurado en 8000.
* Tenga en cuenta que ancho=... y alto=.... Estas son dimensiones de red. Las preguntas frecuentes de Darknet/YOLO explican cómo calcular el tamaño óptimo a utilizar.
* Busque todas las instancias que contengan la línea clases=... y modifíquelas con el número de clases en el archivo .names. En este ejemplo usaremos clases = 4.
En la sección [convolucional] antes de cada sección [yolo], busque todas las instancias que contengan la línea filters=... . El valor a utilizar es (número de categorías + 5) 3. Esto significa que en este ejemplo, (4 + 5) * 3 = 27. Por lo tanto, usaremos filtros=27 para las filas apropiadas.
9. ¡Empieza a entrenar! Ejecute el siguiente comando:
`golpear
cd ~/nn/animales/
detector de red oscura -mapa -dont_show entrenar animales.datos animales.cfg
`
Espere por favor. Los mejores pesos se guardarán como animales_best.weights. Puede observar el progreso del entrenamiento viendo el archivo chart.png. Consulte las preguntas frecuentes de Darknet/YOLO para conocer parámetros adicionales que quizás desee utilizar al entrenar una nueva red.
Si desea ver más detalles durante el entrenamiento, agregue el parámetro --verbose. Por ejemplo:
`golpear
detector de red oscura -map -dont_show --detallado tren animales.datos animales.cfg
`
Otras herramientas y enlaces
Para administrar su proyecto Darknet/YOLO, anotar imágenes, validar sus anotaciones y generar los archivos necesarios para entrenar con Darknet, consulte DarkMark.
Para obtener una potente CLI alternativa a Darknet, para utilizar mosaicos de imágenes, seguimiento de objetos en sus vídeos o una potente API de C++ que se puede utilizar fácilmente en aplicaciones comerciales, consulte DarkHelp.
Consulte las preguntas frecuentes de Darknet/YOLO para ver si pueden ayudar a responder su pregunta.
Consulte los numerosos tutoriales y vídeos de ejemplo en el canal de YouTube de Stéphane.
Si tiene alguna pregunta de soporte o desea chatear con otros usuarios de Darknet/YOLO, únase al servidor Darknet/YOLO Discord.
hoja de ruta
Última actualización: 2024-10-30
Terminado
1. Reemplace qsort() usado durante el entrenamiento con std::sort() (todavía existen algunos otros extraños)
2. Deshazte de check_mistakes, getchar() y system()
3. Convierta Darknet para usar un compilador de C++ (g++ en Linux, VisualStudio en Windows)
4. Reparar la compilación de Windows
5. Reparar el soporte de Python
6. Cree una biblioteca en la red oscura
7. Vuelva a habilitar las etiquetas en las predicciones (código "alfabético")
8. Vuelva a habilitar el código CUDA/GPU
9. Vuelva a habilitar CUDNN
10. Vuelva a habilitar la mitad CUDNN
11. No codifiques la arquitectura CUDA
12. Mejor información de la versión CUDA
13. Vuelva a habilitar AVX
14. Eliminar la solución anterior y el Makefile.
15.Hacer que OpenCV no sea opcional
16. Eliminar la dependencia de la antigua biblioteca pthread
17. Eliminar STB
18. Reescriba CMakeLists.txt para usar la nueva instrumentación CUDA
19. Elimine el antiguo código "alfabeto" y elimine más de 700 imágenes en datos/etiquetas
20. Construir fuera de la fuente
21. Tener una mejor salida del número de versión
22. Optimización del rendimiento relacionado con la formación (tareas continuas)
23. Optimización del rendimiento relacionada con la inferencia (tareas en curso)
24. Utilice el paso por referencia siempre que sea posible
25. Limpiar archivos .hpp
26. Reescribe darknet.h
27. No convierta cv::Mat a void*, en su lugar utilícelo como un objeto C++ adecuado
28. Arreglar o hacer que el uso de estructuras de imágenes internas sea consistente
29. Corrección de compilación para dispositivos Jetson basados en ARM
*Es poco probable que los dispositivos Jetson originales se reparen ya que NVIDIA ya no los admite (sin compilador C++17)
* El nuevo dispositivo Jetson Orin está funcionando
30. Reparar la API de Python en V3
* Necesita una mejor compatibilidad con Python (¿hay algún desarrollador de Python que quiera ayudar con esto?)
objetivos a corto plazo
1. Reemplace printf() con std::cout (trabajo en progreso)
2. Verifique el soporte de la cámara Zed antigua
3. Análisis de línea de comando mejor y más consistente (trabajo en progreso)
objetivos a medio plazo
1. Elimine todos los códigos char* y reemplácelos con std::string
2. No oculte las advertencias y limpie las advertencias del compilador (en progreso)
3. Mejor uso de cv::Mat en lugar de estructuras de imágenes personalizadas en C (trabajo en progreso)
4. Reemplace la antigua función de lista con std::vector o std::list
5. Se corrigió la compatibilidad con imágenes en escala de grises de 1 canal.
6. Agregue soporte para imágenes de N canales donde N > 3 (por ejemplo, imágenes con profundidad adicional o canales térmicos)
7. Limpieza de código continua (en curso)
objetivos a largo plazo
1. Solucionar problemas de CUDA/CUDNN en todas las GPU
2. Reescribe el código CUDA+cuDNN
3. Considere agregar soporte para GPU que no sean NVIDIA
4. Cuadro delimitador girado o algún tipo de soporte en "ángulo"
5. Puntos clave/esqueleto
6. Mapa de calor (en curso)
7. dividir