UniGetUI (anteriormente WingetUI)
El editor de Downcodes le presenta UniGetUI, una interfaz GUI intuitiva creada para usuarios de Windows 10 y 11, diseñada para simplificar el uso de administradores de paquetes CLI comunes, como WinGet, Scoop, Chocolatey, Pip, Npm, .NET Tool y PowerShell Gallery. .
Funciones UniGetUI
¡Con UniGetUI puede descargar, instalar, actualizar y desinstalar fácilmente el software publicado en todos los administradores de paquetes compatibles y mucho más!
Gestores de paquetes compatibles con UniGetUI
¡Consulte la "Tabla de administradores de paquetes admitidos" para obtener más detalles!
Descargo de responsabilidad
El proyecto UniGetUI no tiene conexión con ningún administrador de paquetes compatible y no es completamente oficial. Tenga en cuenta que Downcodes, el desarrollador de UniGetUI, no es responsable del software descargado. ¡Utilícelo con precaución!
Aviso
El sitio web oficial de UniGetUI es https://www.marticliment.com/unigetui/. Cualquier otro sitio web debe considerarse no oficial, digan lo que digan. En particular, wingetui.com no es el sitio web oficial de UniGetUI (anteriormente WingetUI).
Desarrolladores de soporte
Su apoyo es vital para el desarrollo continuo de UniGetUI y los editores de Downcodes lo aprecian profundamente. ¡Gracias!
Tabla de contenido
1. Instalación
Hay varias formas de instalar UniGetUI. ¡Elija su método de instalación preferido!
* Instalación de Microsoft Store (recomendado)
Haga clic aquí para descargar el instalador UniGetUI.
* Instalar a través de Winget
`golpear
instalación de winget --exact --id MartiCliment.UniGetUI --source winget
`
* Instalado a través de Scoop
Nota: actualmente hay un problema con el paquete Scoop de UniGetUI. No instale UniGetUI a través de Scoop todavía.
`golpear
# rem El paquete exclusivo UniGetUI actual no funciona. No instale UniGetUI a través de Scoop por el momento.
# cubo de pala rem agregar extras
# rem Scoop instalar extras/wingetui
`
* Instalado a través de Chocolatey
`golpear
choco instalar wingetui
`
2. Actualiza UniGetUI
UniGetUI tiene una función de actualización automática incorporada. Sin embargo, también puedes actualizarlo como cualquier otro paquete en UniGetUI (ya que UniGetUI está disponible a través de Winget y Scoop).
3. Función
* Administradores de paquetes compatibles
Nota: Todos los administradores de paquetes admiten procesos básicos de instalación, actualización y desinstalación, además de buscar actualizaciones, encontrar nuevos paquetes y recuperar detalles de los paquetes.
| Administrador de paquetes | Soporte | Descripción |
|---|---|---|
| WinGet |
| Primicia | ✅ |
| Chocolate | ✅ |
|
| Npm | ✅ |
| Herramienta .NET |
| Galería de PowerShell |
ilustrar:
1. Algunos paquetes no admiten la instalación en ubicaciones o ámbitos personalizados e ignorarán esta configuración.
2. Aunque es posible que el administrador de paquetes no admita versiones preliminares, es posible que algunos paquetes se copien y una de las copias sea una versión beta.
3. Algunos instaladores no tienen GUI y ignorarán la bandera interactiva.
* Traducir UniGetUI a otros idiomas
Para traducir UniGetUI a otros idiomas o actualizar traducciones antiguas, consulte UniGetUI Wiki para obtener más información.
* Idiomas actualmente soportados
*Actualizado: martes 29 de octubre 00:13:19 2024
4. Contribución
UniGetUI no sería posible sin la ayuda de nuestros queridos colaboradores. Desde la persona que corrigió el error tipográfico hasta la persona que mejoró la mitad del código, ¡UniGetUI no podría prescindir de sus contribuciones!
Colaboradores:
*…
5. Captura de pantalla
*…
6. Preguntas frecuentes
* ¡No puedo instalar ni actualizar un paquete Winget específico! ¿Qué debo hacer?
Esto puede ser un problema con Winget en lugar de UniGetUI. Verifique si el paquete se puede instalar/actualizar a través de PowerShell o el símbolo del sistema usando el comando Winget Upgrade o Winget Install (según corresponda, por ejemplo: Winget Upgrade --id Microsoft.PowerToys). Si esto no funciona, considere pedir ayuda en la página del proyecto Winget.
* El nombre del paquete está truncado por puntos suspensivos: ¿cómo ver su nombre completo/ID?
Ésta es una limitación conocida de Winget. Consulte este número para obtener más detalles: microsoft/winget-cli#2603.
* ¡Mi software antivirus me dice que UniGetUI es un virus! /¡Mi navegador bloquea la descarga de UniGetUI!
Una razón común por la cual las aplicaciones (es decir, archivos ejecutables) se bloquean y/o detectan como virus, incluso si no contienen código malicioso, como UniGetUI, es porque relativamente pocas personas las usan. Agregue a eso el hecho de que probablemente esté descargando algo que se lanzó recientemente y, en muchos casos, bloquear aplicaciones desconocidas es una buena precaución contra el malware real. Dado que UniGetUI es de código abierto y seguro de usar, incluya la aplicación en la lista blanca en la configuración de su software/navegador antivirus.
* ¿Son seguras las bolsas Winget/Scoop?
UniGetUI, Microsoft y Scoop no son responsables de los paquetes disponibles para descargar, que son proporcionados por terceros y, en teoría, podrían estar dañados. Microsoft ha implementado algunas comprobaciones en el software disponible en Winget para reducir el riesgo de descargar malware. Aun así, se recomienda que sólo descargue software de editores confiables. ¡Consulta la wiki para obtener más información!
7. Parámetros de la línea de comando
Consulte aquí para obtener una lista completa de parámetros.
8. Ejemplo
*…
9. Licencia
Licencia Apache-2.0
Marco de detección de objetos Darknet y YOLO
Logotipo de !darknet y hank.ai
Darknet es un marco de red neuronal de código abierto escrito en C, C++ y CUDA.
YOLO (Solo miras una vez) es un sistema de detección de objetos en tiempo real de última generación en el marco Darknet.
Lea cómo Hank.ai ayuda a la comunidad Darknet/YOLO
Anuncio de Darknet V3 "Jazz"
Visita el sitio web de Darknet/YOLO
Lea las preguntas frecuentes sobre Darknet/YOLO
Únase al servidor de discordia Darknet/YOLO
Papeles
Papel YOLOv7
Escala de papel-YOLOv4
Papel YOLOv4
Papel YOLOv3
Información general
El marco Darknet/YOLO es más rápido y preciso que otros marcos y versiones de YOLO.
El marco es completamente gratuito y de código abierto. Puede incorporar Darknet/YOLO en proyectos y productos existentes (incluidos productos comerciales) sin licencias ni tarifas.
Darknet V3 ("Jazz"), lanzado en octubre de 2024, puede ejecutar con precisión videos de conjuntos de datos LEGO a hasta 1000 FPS cuando se usa una GPU NVIDIA RTX 3090, lo que significa que cada fotograma de video tarda 1 milisegundo o menos en leerse, cambiarse de tamaño y procesarse. por Darknet/YOLO.
Si necesita ayuda o quiere hablar sobre Darknet/YOLO, únase al servidor Darknet/YOLO Discord: https://discord.gg/zSq8rtW
La versión CPU de Darknet/YOLO puede ejecutarse en dispositivos simples como Raspberry Pi, servidores en la nube y colab, computadoras de escritorio, portátiles y equipos de entrenamiento de alta gama. La versión GPU de Darknet/YOLO requiere la GPU compatible con CUDA de NVIDIA.
Se sabe que Darknet/YOLO se ejecuta en Linux, Windows y Mac. Consulte las instrucciones de construcción a continuación.
Versión de la red oscura
Las herramientas Darknet originales escritas por Joseph Redmon entre 2013 y 2017 no tenían números de versión. Creemos que esta es la versión 0.x.
El próximo repositorio popular de Darknet mantenido entre 2017 y 2021 por Alexey Bochkovskiy tampoco tiene número de versión. Creemos que esta es la versión 1.x.
El repositorio Darknet patrocinado por Hank.ai y mantenido por Stéphane Charette desde 2023 es el primero en tener un comando de versión. Desde 2023 hasta finales de 2024 vuelve a la versión 2.x “OAK”.
El objetivo es familiarizarse con el código base y, al mismo tiempo, romper la menor cantidad posible de funciones existentes.
Se reescribieron los pasos de compilación para que tengamos una forma unificada de compilar en Windows y Linux usando CMake.
Convierta el código base para utilizar un compilador de C++.
Mejora chart.png durante el entrenamiento.
Corrección de errores y optimizaciones relacionadas con el rendimiento, principalmente relacionadas con la reducción del tiempo necesario para entrenar la red.
La última rama de este código base es la versión 2.1 en la rama v2.
La siguiente fase de desarrollo comienza a mediados de 2024 y se lanzará en octubre de 2024. El comando de versión ahora devuelve 3.x "JAZZ".
Si necesita ejecutar uno de estos comandos, siempre puede consultar la rama v2 anterior. Háganos saber para que podamos investigar cómo volver a agregar los comandos que faltan.
Se eliminaron muchos comandos antiguos y no mantenidos.
Muchas optimizaciones de rendimiento, tanto durante el entrenamiento como durante la inferencia.
La antigua API C ha sido modificada; las aplicaciones que utilizan la API Darknet original requieren modificaciones menores: https://darknetcv.ai/api/api.html
Nueva API Darknet V3 C y C++: https://darknetcv.ai/api/api.html
Nuevas aplicaciones y código de muestra en src-examples: https://darknetcv.ai/api/files.html
Pesas preentrenadas MSCOCO
Para mayor comodidad, varias versiones populares de YOLO están previamente entrenadas en el conjunto de datos MSCOCO. Este conjunto de datos contiene 80 categorías y se puede ver en el archivo de texto cfg/coco.names.
Hay varios otros conjuntos de datos más simples y pesos previamente entrenados disponibles para probar Darknet/YOLO, como LEGO Gears y Rolodex. Para obtener más información, consulte las preguntas frecuentes sobre Darknet/YOLO.
Los pesos previamente entrenados de MSCOCO se pueden descargar desde varias ubicaciones diferentes y también se pueden descargar desde este repositorio:
YOLOv2, noviembre de 2016
*YOLOv2-pequeño
*YOLOv2-completo
YOLOv3, mayo de 2018
* YOLOv3-pequeño
*YOLOv3-completo
YOLOv4, mayo de 2020
* YOLOv4-pequeño
*YOLOv4-completo
YOLOv7, agosto de 2022
* YOLOv7-pequeño
*YOLOv7-completo
Las pesas previamente entrenadas de MSCOCO tienen fines de demostración únicamente. Los archivos .cfg y .names correspondientes a MSCOCO se encuentran en el directorio cfg. Comando de ejemplo:
`golpear
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg darknet03display_videos coco.nombres yolov4-tiny.cfg yolov4-tiny.weights video1.avi DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
`
Tenga en cuenta que uno debe entrenar su propia red. MSCOCO se suele utilizar para confirmar que todo funciona correctamente.
Construir
Los distintos métodos de construcción disponibles en el pasado (antes de 2023) se han fusionado en una solución unificada. Darknet requiere C++ 17 o superior, OpenCV y usar CMake para generar los archivos de proyecto necesarios.
No necesitas saber C++ para construir, instalar o ejecutar Darknet/YOLO más de lo que necesitas ser mecánico para conducir un automóvil.
colaboración de google
Las instrucciones de Google Colab son las mismas que las de Linux. Hay varios cuadernos de Jupyter que muestran cómo realizar determinadas tareas, como entrenar una nueva red.
Consulte el cuaderno en el subdirectorio colab o siga las instrucciones de Linux a continuación.
Método CMake de Linux
1. Instalar dependencias
`golpear
sudo apt-obtener actualización
sudo apt-get install build-essential git libopencv-dev cmake
`
2. Clonar el repositorio Darknet
`golpear
clon de git https://github.com/hank-ai/darknet.git
`
3. Cree un directorio de compilación
`golpear
cd red oscura
compilación mkdir
compilación de cd
`
4. Utilice CMake para configurar la compilación.
`golpear
cmake -DCMAKEBUILDTYPE=Lanzar ..
`
5. Construya la red oscura
`golpear
hacer -j4
`
6. Instale la red oscura
`golpear
sudo hacer instalar
`
7. Pruebe la red oscura
`golpear
versión de la red oscura
`
Métodos de Windows CMake
1. Instalar dependencias
`golpear
instalación de alas Git.Git
Instalación de Winget Kitware.CMake
instalación de alas nsis.nsis
Winget instala Microsoft.VisualStudio.2022.Community
`
2. Instale OpenCV
`golpear
Centros para el Control y la Prevención de Enfermedades:
mkdirC:src
CDC:src
clon de git https://github.com/microsoft/vcpkg.git
cd vcpkg
arranque-vcpkg.bat
.vcpkg.exe instalación integrada
.vcpkg.exe integra powershell
.vcpkg.exe instalar opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
3. Clonar el repositorio Darknet
`golpear
CDC:src
clon de git https://github.com/hank-ai/darknet.git
`
4. Cree un directorio de compilación
`golpear
cd red oscura
compilación mkdir
compilación de cd
`
5. Utilice CMake para configurar la compilación.
`golpear
cmake -DCMAKEBUILDTYPE=Lanzamiento -DCMAKETOOLCHAINFILE=C:srcvcpkgscriptsbuildsystemsvcpkg.cmake ..
`
6. Cree Darknet con Visual Studio
`golpear
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
`
7. Cree el paquete de instalación de NSIS
`golpear
msbuild.exe /property:Platform=x64;Configuration=Versión PACKAGE.vcxproj
`
8. Ejecute la red oscura
`golpear
C:srcdarknetbuildsrc-cliReleasedarknet.exe versión
`
Usando la red oscura
CLI
La siguiente no es una lista completa de todos los comandos admitidos por Darknet.
Además de la CLI de Darknet, también tenga en cuenta la CLI del proyecto DarkHelp, que proporciona una CLI alternativa a Darknet/YOLO. DarkHelp CLI también tiene varias funciones avanzadas que no se encuentran en Darknet. Puede utilizar la CLI de Darknet y la CLI de DarkHelp juntas; no se excluyen mutuamente.
Para la mayoría de los comandos que se muestran a continuación, necesitará el archivo .weights y los archivos .names y .cfg correspondientes. Puede entrenar la red usted mismo (¡muy recomendable!) o descargar redes neuronales que otros hayan entrenado y que estén disponibles gratuitamente en Internet. Ejemplos de conjuntos de datos previos al entrenamiento incluyen:
LEGO Gears (encuentra objetos en imágenes)
Rolodex (buscar texto en la imagen)
MSCOCO (Detección de objetos estándar clase 80)
Los comandos para ejecutar incluyen:
Enumere algunos comandos y opciones posibles que se pueden ejecutar:
ayuda de la red oscura
Verificar versión:
versión de la red oscura
Utilice imágenes para hacer predicciones:
V2: prueba del detector de red oscura cars.data cars.cfg cars_best.weights image1.jpg
V3: darknet02displayannotatedimages cars.cfg image1.jpg
DarkHelp: DarkHelp cars.cfg cars.cfg cars_best.weights imagen1.jpg
Coordenadas de salida:
V2: prueba del detector de red oscura animales.datos animales.cfg animalesbest.weights -extoutput dog.jpg
V3: darknet01inference_images animales perro.jpg
DarkHelp: DarkHelp --json animales.cfg animales.nombres animales_mejores.pesos perro.jpg
Usar vídeo:
V2: demostración del detector de red oscura animales.datos animales.cfg animalesbest.weights -extoutput test.mp4
V3: darknet03display_videos animales.cfg prueba.mp4
DarkHelp: DarkHelp animales.cfg animales.nombres animales_mejores.pesos prueba.mp4
Leyendo desde la cámara web:
V2: demostración del detector de red oscura animales.data animales.cfg animales_best.weights -c 0
V3: darknet08display_webcam animales
Guardar resultados en vídeo:
V2: demostración del detector de red oscura animales.datos animales.cfg animalesbest.pesos prueba.mp4 -outfilename res.avi
V3: darknet05processvideosmultithreaded animales.cfg animales.nombres animales_mejores.pesos prueba.mp4
DarkHelp: DarkHelp animales.cfg animales.nombres animales_mejores.pesos prueba.mp4
JSON:
V2: demostración del detector de red oscura animales.datos animales.cfg animalesbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson animales image1.jpg
DarkHelp: DarkHelp --json animales.nombres animales.cfg animales_mejor.pesos imagen1.jpg
Ejecutar en una GPU específica:
V2: demostración del detector de red oscura animales.data animales.cfg animales_best.weights -i 1 test.mp4
Verifique la precisión de la red neuronal:
`golpear
Mapa del detector de darknet conducción.datos conducción.cfg conducción_mejor.pesos...
Id. Nombre AvgPrecision TP FN FP TN Precisión ErrorRate Precisión Recuperación Especificidad FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ---------- ----------
0 vehículo 91,2495 32648 3903 5826 65129 0,9095 0,0905 0,8486 0,8932 0,9179 0,0821
1 motocicleta 80,4499 2936 513 569 5393 0,8850 0,1150 0,8377 0,8513 0,9046 0,0954
2 bicicletas 89,0912 570 124 104 3548 0,9475 0,0525 0,8457 0,8213 0,9715 0,0285
3 personas 76,7937 7072 1727 2574 27523 0,8894 0,1106 0,7332 0,8037 0,9145 0,0855
4 muchos vehículos 64,3089 1068 509 733 11288 0,9087 0,0913 0,5930 0,6772 0,9390 0,0610
5 luz verde 86,8118 1969 239 510 4116 0,8904 0,1096 0,7943 0,8918 0,8898 0,1102
6 luz amarilla 82,0390 126 38 30 1239 0,9525 0,0475 0,8077 0,7683 0,9764 0,0236
7 luz roja 94,1033 3449 217 451 4643 0,9237 0,0763 0,8844 0,9408 0,9115 0,0885
`
Verifique la precisión mAP@IoU=75:
Mapa del detector de darknet animales.datos animales.cfg animalesbest.weights -iouthresh 0,75
Es mejor volver a calcular los puntos de anclaje en DarkMark, ya que se ejecutará 100 veces seguidas y seleccionará el mejor punto de anclaje de todos los puntos de anclaje calculados. Sin embargo, si deseas ejecutar una versión anterior en Darknet:
detector de red oscura calcanchors animales.data -numof_clusters 6 -ancho 320 -alto 256
Entrene una nueva red:
detector de red oscura -map -dont_show train animales.data animales.cfg (consulte también la sección de capacitación a continuación)
tren
Enlaces rápidos a secciones relevantes de las preguntas frecuentes de Darknet/YOLO:
¿Cómo debo configurar mis archivos y directorios?
¿Qué perfil debo utilizar?
¿Qué comando debería utilizar al entrenar su propia red?
Usar DarkMark para crear todos los archivos Darknet necesarios es la forma más sencilla de realizar anotaciones y entrenar. Esta es definitivamente la forma recomendada de entrenar nuevas redes neuronales.
Si desea configurar manualmente los distintos archivos para entrenar una red personalizada:
1. Crea una nueva carpeta
Cree una nueva carpeta para almacenar los archivos. Por ejemplo, creará una red neuronal para detectar animales, así que cree el siguiente directorio: ~/nn/animals/.
2. Copie el archivo de configuración.
Copie uno de los archivos de configuración de Darknet que desee utilizar como plantilla. Por ejemplo, consulte cfg/yolov4-tiny.cfg. Colóquelo en la carpeta que creó. Por ejemplo, ahora tenemos ~/nn/animals/animals.cfg.
3. Crear archivo .names
Cree un archivo de texto animales.names en la misma carpeta donde coloca el archivo de configuración. Por ejemplo, ahora tenemos ~/nn/animals/animals.names.
4. Edite el archivo .names
Utilice un editor de texto para editar el archivo animales.nombres. Enumere las categorías que desea utilizar. Debe haber exactamente una entrada por línea, sin líneas en blanco ni comentarios. Por ejemplo, el archivo .names contendrá exactamente 4 líneas:
`
perro
gato
pájaro
caballo
`
5. Crear archivo .data
Cree un archivo de texto animales.data en la misma carpeta. Por ejemplo, un archivo .data contendría:
`
clases=4
tren=/home/nombre de usuario/nn/animals/animals_train.txt
valid=/home/nombre de usuario/nn/animals/animals_valid.txt
nombres=/home/nombredeusuario/nn/animals/animals.nombres
copia de seguridad=/home/nombre de usuario/nn/animales
`
6. Cree una carpeta de conjunto de datos
Crea una carpeta para almacenar tus imágenes y anotaciones. Por ejemplo, esto podría ser ~/nn/animals/dataset. Cada imagen requiere un archivo .txt correspondiente que describe las anotaciones de esa imagen. El formato de los archivos de comentarios .txt es muy específico. No puede crear estos archivos manualmente porque cada anotación debe contener las coordenadas precisas de la anotación. Consulte DarkMark u otro software similar para anotar sus imágenes. El formato de anotación de YOLO se describe en las preguntas frecuentes de Darknet/YOLO.
7. Cree archivos “entrenadores” y “válidos”
Cree archivos de texto "entrenadores" y "válidos" nombrados en el archivo .data. Estos dos archivos de texto deben enumerar todas las imágenes que Darknet debe usar para entrenamiento y validación al calcular el% de mAP, respectivamente. Exactamente una imagen por fila. Las rutas y los nombres de archivos pueden ser relativos o absolutos.
8. Modifique el archivo .cfg
Utilice un editor de texto para modificar su archivo .cfg.
* Asegúrese de que el lote sea = 64.
*Presta atención a las subdivisiones. Dependiendo del tamaño de la red y la cantidad de memoria disponible en la GPU, es posible que necesites aumentar las subdivisiones. El valor óptimo es 1, así que comience con 1. Si 1 no funciona para usted, consulte las preguntas frecuentes de Darknet/YOLO.
Nota maxbatches=…. Un buen valor para empezar es 2000 veces el número de categorías. Por ejemplo, tenemos 4 animales, entonces 4 2000 = 8000. Esto significa que usaremos maxbatches=8000.
* Nota pasos=…. Esto debe establecerse en 80 % y 90 % de los lotes máximos. Por ejemplo, dado que maxbatches está configurado en 8000, usaremos pasos = 6400,7200.
* Nota ancho=... y alto=.... Estas son dimensiones de la red. Las preguntas frecuentes de Darknet/YOLO explican cómo calcular el tamaño óptimo a utilizar.
En la sección [convolucional] antes de cada sección [yolo], busque todas las instancias de las líneas clases=... y filtros=.... El valor a utilizar es (número de clases + 5) 3. Esto significa que para este ejemplo, (4 + 5) * 3 = 27. Entonces usaremos filtros = 27 en la línea correspondiente.
9. Empieza a entrenar
Ejecute el siguiente comando:
`golpear
cd ~/nn/animales/
detector de red oscura -mapa -dont_show entrenar animales.datos animales.cfg
`
Ser paciente. Los mejores pesos se guardarán como animales_best.weights. Puede observar el progreso del entrenamiento viendo el archivo chart.png. Consulte las preguntas frecuentes de Darknet/YOLO para conocer parámetros adicionales que quizás desee utilizar al entrenar una nueva red.
Si desea ver más detalles durante el entrenamiento, agregue el parámetro --verbose. Por ejemplo:
`golpear
detector de red oscura -map -dont_show --verbose train animales.data animales.cfg
`
Otras herramientas y enlaces
Para administrar su proyecto Darknet/YOLO, anotar imágenes, validar sus anotaciones y generar los archivos necesarios para la capacitación con Darknet, consulte DarkMark.
Para obtener una CLI alternativa poderosa a Darknet para usar la unión de imágenes, el seguimiento de objetos en video o usar una poderosa API de C++ que se puede usar fácilmente en aplicaciones comerciales, consulte DarkHelp.
Consulte las preguntas frecuentes de Darknet/YOLO para ver si pueden ayudar a responder su pregunta.
Consulte los numerosos tutoriales y vídeos de ejemplo en el canal de YouTube de Stéphane.
Si tiene preguntas de soporte o desea chatear con otros usuarios de Darknet/YOLO, únase al servidor de discordia de Darknet/YOLO.
Hoja de ruta
Última actualización el 2024-10-30:
Terminado
Se reemplazó qsort() con std::sort() durante el entrenamiento (aún existen algunas otras ambigüedades)
Eliminar check_mistakes, getchar() y system()
Convierta Darknet para usar un compilador de C++ (g++ en Linux, Visual Studio en Windows)
Reparar la compilación de Windows
Reparar el soporte de Python
Construir biblioteca darknet
Volver a habilitar etiquetas en predicciones (código "alfabeto")
Volver a habilitar el código CUDA/GPU
Volver a habilitar CUDNN
Vuelva a habilitar la mitad CUDNN
No codifique la arquitectura CUDA
Mejor información de la versión CUDA
Vuelva a habilitar AVX
Eliminar la solución anterior y Makefile
Hacer que OpenCV no sea opcional
Eliminar la dependencia de la antigua biblioteca pthread
Eliminar STB
Reescriba CMakeLists.txt para usar la nueva instrumentación CUDA
Se eliminó el antiguo código "alfabeto" y se eliminaron más de 700 imágenes en datos/etiquetas.
Construir fuera del código fuente
Tener una mejor salida del número de versión
Optimizaciones del rendimiento relacionadas con la formación (tareas continuas)
Optimizaciones de rendimiento relacionadas con la inferencia (tareas en curso)
Utilice referencias por valor siempre que sea posible.
Limpiar archivos .hpp
Reescribir darknet.h
No convierta cv::Mat a void, en su lugar utilícelo como un objeto C++ adecuado
Corregir o mantener un uso consistente de las estructuras de imágenes internas.
Corrección de compilación para dispositivos Jetson basados en ARM
*Es poco probable que los dispositivos Jetson originales se reparen ya que NVIDIA ya no los admite (sin compilador C++17).
* Nuevo dispositivo Jetson Orin ahora funcionando
Reparar la API de Python en V3
* Necesita un mejor soporte para Python (¿hay algún desarrollador de Python dispuesto a ayudar?)
objetivos a corto plazo
Reemplace printf() con std::cout (trabajo en progreso)
Investigar el antiguo soporte de la cámara Zed
Análisis de línea de comando mejor y más consistente (trabajo en progreso)
objetivos a medio plazo
Elimine todos los códigos de caracteres y reemplácelos con std::string
No oculte advertencias y limpie las advertencias del compilador (trabajo en progreso)
Es mejor usar cv::Mat en lugar de estructuras de imágenes personalizadas en C (trabajo en progreso)
Reemplace las funciones de lista antiguas con std::vector o std::list
Se corrigió el soporte para imágenes en escala de grises de 1 canal.
Agregue soporte para imágenes de N canales donde N > 3 (por ejemplo, imágenes con profundidad adicional o canales térmicos)
Limpieza de código en curso (en progreso)
objetivos a largo plazo
Solucionar problemas de CUDA/CUDNN en todas las GPU
Reescribir el código CUDA+cuDNN
Investigar la posibilidad de agregar soporte para GPU que no sean NVIDIA
Cuadro delimitador girado o algún tipo de soporte de "ángulo"
puntos clave/esqueleto
Mapa de calor (trabajo en progreso)
segmentación