Estrutura de detecção de objetos Darknet e YOLO
Artigos
Informações gerais
Versão Darknet
Pesos pré-treinados MSCOCO
Prédio
Google Colab
Método Linux CMake
Método CMake do Windows
Usando Darknet
CLI
Treinamento
Outras ferramentas e links
Roteiro
Metas de curto prazo
Metas de médio prazo
Metas de longo prazo
Darknet é uma estrutura de rede neural de código aberto escrita em C, C++ e CUDA.
YOLO (You Only Look Once) é um sistema de detecção de objetos de última geração em tempo real, que roda na estrutura Darknet.
Leia como Hank.ai está ajudando a comunidade Darknet/YOLO
Anunciando Darknet V3 "Jazz"
Veja o site Darknet/YOLO
Por favor, leia as perguntas frequentes do Darknet/YOLO
Junte-se ao servidor de discórdia Darknet/YOLO
Artigo YOLOv7
Papel em escala-YOLOv4
Artigo YOLOv4
Artigo YOLOv3
A estrutura Darknet/YOLO continua a ser mais rápida e precisa do que outras estruturas e versões do YOLO.
Esta estrutura é totalmente gratuita e de código aberto . Você pode incorporar Darknet/YOLO em projetos e produtos existentes – inclusive comerciais – sem licença ou pagamento de taxa.
Darknet V3 ("Jazz") lançado em outubro de 2024 pode executar com precisão os vídeos do conjunto de dados LEGO em até 1000 FPS ao usar uma GPU NVIDIA RTX 3090, o que significa que cada quadro de vídeo é lido, redimensionado e processado por Darknet/YOLO em 1 milissegundo ou menos.
Por favor, junte-se ao servidor Darknet/YOLO Discord se precisar de ajuda ou quiser discutir Darknet/YOLO: https://discord.gg/zSq8rtW
A versão CPU do Darknet/YOLO pode ser executada em dispositivos simples, como Raspberry Pi, servidores em nuvem e colab, desktops, laptops e equipamentos de treinamento de última geração. A versão GPU do Darknet/YOLO requer uma GPU compatível com CUDA da NVIDIA.
Darknet/YOLO é conhecido por funcionar em Linux, Windows e Mac. Veja as instruções de construção abaixo.
A ferramenta Darknet original escrita por Joseph Redmon em 2013-2017 não tinha um número de versão. Consideramos esta versão 0.x.
O próximo repositório Darknet popular mantido por Alexey Bochkovskiy entre 2017-2021 também não tinha um número de versão. Consideramos esta versão 1.x.
O repositório Darknet patrocinado por Hank.ai e mantido por Stéphane Charette a partir de 2023 foi o primeiro com um comando version
. De 2023 até o final de 2024, retornou a versão 2.x "OAK".
O objetivo era tentar quebrar o mínimo das funcionalidades existentes enquanto se familiarizava com a base de código.
Reescrevemos as etapas de construção para que tenhamos uma maneira unificada de construir usando CMake no Windows e no Linux.
Converteu a base de código para usar o compilador C++.
Chart.png aprimorado durante o treinamento.
Correções de bugs e otimizações relacionadas ao desempenho, principalmente relacionadas à redução do tempo necessário para treinar uma rede.
A última ramificação desta base de código é a versão 2.1 na ramificação v2
.
A próxima fase de desenvolvimento começou em meados de 2024 e foi lançada em outubro de 2024. O comando version
agora retorna 3.x "JAZZ".
Você sempre pode fazer uma verificação da ramificação v2
anterior se precisar executar um desses comandos. Informe-nos para que possamos investigar a adição de comandos ausentes.
Muitos comandos antigos e não mantidos foram removidos.
Muitas otimizações de desempenho, tanto durante o treinamento quanto durante a inferência.
A API C legada foi modificada; aplicativos que usam a API Darknet original precisarão de pequenas modificações: https://darknetcv.ai/api/api.html
Nova API Darknet V3 C e C++: https://darknetcv.ai/api/api.html
Novos aplicativos e código de exemplo em src-examples
: https://darknetcv.ai/api/files.html
Várias versões populares do YOLO foram pré-treinadas por conveniência no conjunto de dados MSCOCO. Este conjunto de dados possui 80 classes, que podem ser vistas no arquivo de texto cfg/coco.names
.
Existem vários outros conjuntos de dados mais simples e pesos pré-treinados disponíveis para testar Darknet/YOLO, como LEGO Gears e Rolodex. Consulte as perguntas frequentes do Darknet/YOLO para obter detalhes.
Os pesos pré-treinados do MSCOCO podem ser baixados de vários locais diferentes e também estão disponíveis para download neste repositório:
YOLOv2, novembro de 2016
YOLOv2-tiny
YOLOv2-completo
YOLOv3, maio de 2018
YOLOv3-minúsculo
YOLOv3-completo
YOLOv4, maio de 2020
YOLOv4-tiny
YOLOv4-completo
YOLOv7, agosto de 2022
YOLOv7-tiny
YOLOv7-completo
Os pesos pré-treinados da MSCOCO são fornecidos apenas para fins de demonstração. Os arquivos .cfg
e .names
correspondentes para MSCOCO estão no diretório cfg. Comandos de exemplo:
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights darknet_02_display_annotated_images coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg darknet_03_display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
Observe que se espera que as pessoas treinem suas próprias redes. MSCOCO normalmente é usado para confirmar se tudo está funcionando corretamente.
Os vários métodos de construção disponíveis no passado (pré-2023) foram fundidos numa única solução unificada. Darknet requer C++17 ou mais recente, OpenCV, e usa CMake para gerar os arquivos de projeto necessários.
Você não precisa saber C++ para construir, instalar ou executar Darknet/YOLO, da mesma forma que não precisa ser mecânico para dirigir um carro.
Google Colab
Linux
Windows
Cuidado se você estiver seguindo tutoriais antigos com etapas de construção mais complicadas ou etapas de construção que não correspondem ao que está neste leia-me. As novas etapas de construção descritas abaixo começaram em agosto de 2023.
Os desenvolvedores de software são incentivados a visitar https://darknetcv.ai/ para obter informações sobre os componentes internos da estrutura de detecção de objetos Darknet/YOLO.
As instruções do Google Colab são iguais às instruções do Linux. Vários notebooks Jupyter estão disponíveis mostrando como realizar determinadas tarefas, como treinar uma nova rede.
Veja os notebooks no subdiretório colab
e/ou siga as instruções do Linux abaixo.
Opcional: se você tiver uma GPU NVIDIA moderna, poderá instalar CUDA ou CUDA+cuDNN neste momento. Se instalado, o Darknet usará sua GPU para acelerar o processamento de imagens (e vídeos).
Você deve excluir o arquivo CMakeCache.txt
do diretório build
Darknet para forçar o CMake a reencontrar todos os arquivos necessários.
Lembre-se de reconstruir o Darknet.
Darknet pode funcionar sem ele, mas se você quiser treinar uma rede personalizada, será necessário CUDA ou CUDA+cuDNN.
Visite https://developer.nvidia.com/cuda-downloads para baixar e instalar o CUDA.
Visite https://developer.nvidia.com/rdp/cudnn-download ou https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview para fazer download e instale o cuDNN.
Depois de instalar o CUDA, certifique-se de executar nvcc
e nvidia-smi
. Talvez seja necessário modificar sua variável PATH
.
Se você instalar CUDA ou CUDA+cuDNN posteriormente ou atualizar para uma versão mais recente do software NVIDIA:
Estas instruções assumem (mas não exigem!) um sistema rodando Ubuntu 22.04. Adapte conforme necessário se estiver usando uma distribuição diferente.
sudo apt-get install build-essential git libopencv-dev cmake mkdir ~/srccd ~/src clone do git https://github.com/hank-ai/darknetcd darknet compilação mkdir buildcd cmake -DCMAKE_BUILD_TYPE=Liberar .. faça o pacote -j4 sudo dpkg -i darknet-<INSERT-VERSION-YOU-BUILT-HERE>.deb
Se você estiver usando uma versão mais antiga do CMake , precisará atualizar o CMake antes de executar o comando cmake
acima. A atualização do CMake no Ubuntu pode ser feita com os seguintes comandos:
sudo apt-get purge cmake sudo snap install cmake --classic
Se estiver usando bash
como seu shell de comando, você desejará reiniciá-lo neste momento. Se estiver usando fish
, ele deverá seguir imediatamente o novo caminho.
Usuários avançados:
Se você deseja construir um arquivo de instalação RPM em vez de um arquivo DEB, consulte as linhas relevantes em
CM_package.cmake
. Antes de executarmake -j4 package
você precisará editar estas duas linhas:
SET (CPACK_GENERATOR "DEB")#SET (CPACK_GENERATOR "RPM")
Para distros como Centos e OpenSUSE, você precisará mudar essas duas linhas em
CM_package.cmake
para serem:
#SET(CPACK_GENERATOR"DEB")SET(CPACK_GENERATOR"RPM")
Para instalar o pacote de instalação após a conclusão da construção, use o gerenciador de pacotes usual para sua distribuição. Por exemplo, em sistemas baseados em Debian, como Ubuntu:
sudo dpkg -i darknet-2.0.1-Linux.deb
A instalação do pacote .deb
copiará os seguintes arquivos:
/usr/bin/darknet
é o executável Darknet usual. Execute darknet version
da CLI para confirmar se ela está instalada corretamente.
/usr/include/darknet.h
é a API Darknet para desenvolvedores C, C++ e Python.
/usr/include/darknet_version.h
contém informações de versão para desenvolvedores.
/usr/lib/libdarknet.so
é a biblioteca de link para desenvolvedores C, C++ e Python.
/opt/darknet/cfg/...
é onde todos os modelos .cfg
são armazenados.
Agora você terminou! Darknet foi construído e instalado em /usr/bin/
. Execute isto para testar: darknet version
.
Se você não tem
/usr/bin/darknet
então isso significa que você não o instalou, apenas o construiu! Certifique-se de instalar o arquivo.deb
ou.rpm
conforme descrito acima.
Estas instruções pressupõem uma nova instalação do Windows 11 22H2.
Abra uma janela normal do prompt de comando cmd.exe
e execute os seguintes comandos:
winget instalar Git.Git winget instalar Kitware.CMake winget instalar nsis.nsis instalar winget Microsoft.VisualStudio.2022.Community
Neste ponto, precisamos modificar a instalação do Visual Studio para incluir suporte para aplicativos C++:
clique no menu "Iniciar do Windows" e execute o "Visual Studio Installer"
clique em Modify
selecione Desktop Development With C++
clique em Modify
no canto inferior direito e, a seguir, clique em Yes
Depois que tudo for baixado e instalado, clique no menu "Iniciar do Windows" novamente e selecione Developer Command Prompt for VS 2022
. Não use o PowerShell para essas etapas, você terá problemas!
Usuários avançados:
Em vez de executar o
Developer Command Prompt
, você pode usar um prompt de comando normal ou ssh no dispositivo e executar manualmente"Program FilesMicrosoft Visual Studio2022CommunityCommon7ToolsVsDevCmd.bat"
.
Muitas pessoas cometem o mesmo erro e pensam que podem pular a etapa anterior. Por favor, não pule esta etapa! Não use um prompt de comando normal nem o PowerShell! Releia as etapas acima para ver que tipo de janela você deve usar. Sempre que quiser usar o Visual Studio no prompt de comando para compilar o código C++, você deverá usar o prompt de comando do desenvolvedor do Visual Studio conforme descrito acima.
Depois de executar o prompt de comando do desenvolvedor conforme descrito acima, execute os seguintes comandos para instalar o Microsoft VCPKG, que será usado para construir o OpenCV:
cd c:mkdir c:srccd c:src clone do git https://github.com/microsoft/vcpkgcd vcpkg bootstrap-vcpkg.bat .vcpkg.exe integrar instalação .vcpkg.exe integrar powershell.vcpkg.exe instalar opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
Seja paciente nesta última etapa, pois pode demorar muito para ser executado. Ele precisa baixar e construir muitas coisas.
Usuários avançados:
Observe que existem muitos outros módulos opcionais que você pode querer adicionar ao construir o OpenCV. Execute
.vcpkg.exe search opencv
para ver a lista completa.
Opcional: se você tiver uma GPU NVIDIA moderna, poderá instalar CUDA ou CUDA+cuDNN neste momento. Se instalado, o Darknet usará sua GPU para acelerar o processamento de imagens (e vídeos).
Você deve excluir o arquivo CMakeCache.txt
do diretório build
Darknet para forçar o CMake a reencontrar todos os arquivos necessários.
Lembre-se de reconstruir o Darknet.
Darknet pode funcionar sem ele, mas se você quiser treinar uma rede personalizada, será necessário CUDA ou CUDA+cuDNN.
Visite https://developer.nvidia.com/cuda-downloads para baixar e instalar o CUDA.
Visite https://developer.nvidia.com/rdp/cudnn-download ou https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows para baixar e instalar o cuDNN.
Depois de instalar o CUDA, certifique-se de executar nvcc.exe
e nvidia-smi.exe
. Talvez seja necessário modificar sua variável PATH
.
Depois de baixar o cuDNN, descompacte e copie os diretórios bin, include e lib em C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/[version]/
. Pode ser necessário substituir alguns arquivos.
Se você instalar CUDA ou CUDA+cuDNN posteriormente ou atualizar para uma versão mais recente do software NVIDIA:
CUDA deve ser instalado após o Visual Studio. Se você atualizar o Visual Studio, lembre-se de reinstalar o CUDA.
Depois que todas as etapas anteriores forem concluídas com êxito, você precisará clonar o Darknet e construí-lo. Durante esta etapa também precisamos informar ao CMake onde o vcpkg está localizado para que ele possa encontrar o OpenCV e outras dependências:
cd c:src clone git https://github.com/hank-ai/darknet.gitcd darknetmkdir buildcd build cmake -DCMAKE_BUILD_TYPE=Liberar -DCMAKE_TOOLCHAIN_FILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake .. msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln msbuild.exe /property:Platform=x64;Configuration=Liberar PACKAGE.vcxproj
Se você receber um erro sobre algumas DLLs CUDA ou cuDNN ausentes, como cublas64_12.dll
, copie manualmente os arquivos CUDA .dll
no mesmo diretório de saída que Darknet.exe
. Por exemplo:
copie "C:Arquivos de programasNVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll" src-cliRelease
(Esse é um exemplo! Verifique qual versão você está executando e execute o comando apropriado para o que você instalou.)
Depois que os arquivos forem copiados, execute novamente o último comando msbuild.exe
para gerar o pacote de instalação do NSIS:
msbuild.exe /property:Platform=x64;Configuration=Liberar PACKAGE.vcxproj
Usuários avançados:
Observe que a saída do comando
cmake
é um arquivo de solução normal do Visual Studio,Darknet.sln
. Se você for um desenvolvedor de software que usa regularmente a GUI do Visual Studio em vez demsbuild.exe
para criar projetos, poderá ignorar a linha de comando e carregar o projeto Darknet no Visual Studio.
Agora você deve ter este arquivo que pode ser executado: C:srcDarknetbuildsrc-cliReleasedarknet.exe
. Execute isto para testar: C:srcDarknetbuildsrc-cliReleasedarknet.exe --version
.
Para instalar corretamente o Darknet, as bibliotecas, os arquivos incluídos e as DLLs necessárias, execute o assistente de instalação do NSIS que foi criado na última etapa. Veja o arquivo darknet-<INSERT-VERSION-YOU-BUILT-HERE>-win64.exe
no diretório build
. Por exemplo:
darknet-<INSERT-VERSION-YOU-BUILT-HERE>-win64.exe
A instalação do pacote de instalação NSIS irá:
Crie um diretório chamado Darknet
, como C:Program FilesDarknet
.
Instale o aplicativo CLI, darknet.exe
e outros aplicativos de amostra.
Instale os arquivos .dll
de terceiros necessários, como os do OpenCV.
Instale os arquivos Darknet .dll
, .lib
e .h
necessários para usar darknet.dll
de outro aplicativo.
Instale os arquivos .cfg
do modelo.
Agora você terminou! Assim que o assistente de instalação terminar, Darknet terá sido instalado em C:Program FilesDarknet
. Execute isto para testar: C:Program FilesDarknetbindarknet.exe version
.
Se você não possui
C:/Program Files/darknet/bin/darknet.exe
, isso significa que você não o instalou, apenas o construiu! Certifique-se de passar por cada painel do assistente de instalação do NSIS na etapa anterior.
A seguir não está a lista completa de todos os comandos suportados pelo Darknet.
Além da CLI Darknet, observe também a CLI do projeto DarkHelp, que fornece uma CLI alternativa para Darknet/YOLO. O DarkHelp CLI também possui vários recursos avançados que não estão disponíveis diretamente no Darknet. Você pode usar o Darknet CLI e o DarkHelp CLI juntos, eles não são mutuamente exclusivos.
Para a maioria dos comandos mostrados abaixo, você precisará do arquivo .weights
com os arquivos .names
e .cfg
correspondentes. Você pode treinar sua própria rede (altamente recomendado!) ou baixar uma rede neural que alguém já treinou e disponibilizou gratuitamente na internet. Exemplos de conjuntos de dados pré-treinados incluem:
LEGO Gears (encontrar objetos em uma imagem)
Rolodex (encontrar texto em uma imagem)
MSCOCO (detecção de objetos padrão de classe 80)
Os comandos a serem executados incluem:
Liste alguns comandos e opções possíveis para executar:
darknet help
Confira a versão:
darknet version
Preveja usando uma imagem:
V2: darknet detector test cars.data cars.cfg cars_best.weights image1.jpg
V3: darknet_02_display_annotated_images cars.cfg image1.jpg
DarkHelp: DarkHelp cars.cfg cars.cfg cars_best.weights image1.jpg
Coordenadas de saída:
V2: darknet detector test animals.data animals.cfg animals_best.weights -ext_output dog.jpg
V3: darknet_01_inference_images animals dog.jpg
DarkHelp: DarkHelp --json animals.cfg animals.names animals_best.weights dog.jpg
Trabalhando com vídeos:
V2: darknet detector demo animals.data animals.cfg animals_best.weights -ext_output test.mp4
V3: darknet_03_display_videos animals.cfg test.mp4
DarkHelp: DarkHelp animals.cfg animals.names animals_best.weights test.mp4
Lendo de uma webcam:
V2: darknet detector demo animals.data animals.cfg animals_best.weights -c 0
V3: darknet_08_display_webcam animals
Salve os resultados em um vídeo:
V2: darknet detector demo animals.data animals.cfg animals_best.weights test.mp4 -out_filename res.avi
V3: darknet_05_process_videos_multithreaded animals.cfg animals.names animals_best.weights test.mp4
DarkHelp: DarkHelp animals.cfg animals.names animals_best.weights test.mp4
JSON:
V2: darknet detector demo animals.data animals.cfg animals_best.weights test50.mp4 -json_port 8070 -mjpeg_port 8090 -ext_output
V3: darknet_06_images_to_json animals image1.jpg
DarkHelp: DarkHelp --json animals.names animals.cfg animals_best.weights image1.jpg
Executando em uma GPU específica:
V2: darknet detector demo animals.data animals.cfg animals_best.weights -i 1 test.mp4
Para verificar a precisão da rede neural:
mapa do detector darknet driving.data driving.cfg driving_best.weights ... Id Nome AvgPrecision TP FN FP TN Precisão ErrorRate Precisão Recall Especificidade FalsePosRate ------ ------------ ------ ------ ------ ------ -------- --------- --------- ------ ----------- ------------ 0 veículo 91,2495 32648 3903 5826 65129 0,9095 0,0905 0,8486 0,8932 0,9179 0,0821 1 motocicleta 80,4499 2936 513 569 5393 0,8850 0,1150 0,8377 0,8513 0,9046 0,0954 2 bicicletas 89,0912 570 124 104 3548 0,9475 0,0525 0,8457 0,8213 0,9715 0,0285 3 pessoas 76,7937 7072 1727 2574 27523 0,8894 0,1106 0,7332 0,8037 0,9145 0,0855 4 muitos veículos 64,3089 1068 509 733 11288 0,9087 0,0913 0,5930 0,6772 0,9390 0,0610 5 luz verde 86,8118 1969 239 510 4116 0,8904 0,1096 0,7943 0,8918 0,8898 0,1102 6 luz amarela 82,0390 126 38 30 1239 0,9525 0,0475 0,8077 0,7683 0,9764 0,0236 7 luz vermelha 94,1033 3449 217 451 4643 0,9237 0,0763 0,8844 0,9408 0,9115 0,0885
Para verificar a precisão mAP@IoU=75:
darknet detector map animals.data animals.cfg animals_best.weights -iou_thresh 0.75
O recálculo das âncoras é melhor feito no DarkMark, pois ele será executado 100 vezes consecutivas e selecionará as melhores âncoras de todas as que foram calculadas. Mas se você quiser rodar a versão antiga no Darknet:
detector darknet calc_anchors animais.data -num_of_clusters 6 -largura 320 -altura 256
Treine uma nova rede:
darknet detector -map -dont_show train animals.data animals.cfg
(veja também a seção de treinamento abaixo)
Links rápidos para seções relevantes do FAQ Darknet/YOLO:
Como devo configurar meus arquivos e diretórios?
Qual arquivo de configuração devo usar?
Qual comando devo usar ao treinar minha própria rede?
A maneira mais simples de anotar e treinar é usar o DarkMark para criar todos os arquivos Darknet necessários. Esta é definitivamente a forma recomendada para treinar uma nova rede neural.
Se preferir configurar manualmente os vários arquivos para treinar uma rede personalizada:
Crie uma nova pasta onde os arquivos serão armazenados. Para este exemplo, será criada uma rede neural para detectar animais, então será criado o seguinte diretório: ~/nn/animals/
.
Copie um dos arquivos de configuração Darknet que você gostaria de usar como modelo. Por exemplo, consulte cfg/yolov4-tiny.cfg
. Coloque isso na pasta que você criou. Para este exemplo, agora temos ~/nn/animals/animals.cfg
.
Crie um arquivo de texto animals.names
na mesma pasta onde você colocou o arquivo de configuração. Para este exemplo, agora temos ~/nn/animals/animals.names
.
Edite o arquivo animals.names
com seu editor de texto. Liste as classes que você deseja usar. Você precisa ter exatamente 1 entrada por linha, sem linhas em branco e sem comentários. Neste exemplo, o arquivo .names
conterá exatamente 4 linhas:
cachorro gato pássaro cavalo
Crie um arquivo de texto animals.data
na mesma pasta. Para este exemplo, o arquivo .data
conterá:
aulas = 4 trem = /home/nomedeusuário/nn/animais/animals_train.txt válido = /home/nomedeusuário/nn/animals/animals_valid.txt nomes = /home/nomedeusuário/nn/animais/animais.nomes backup = /home/nomedeusuário/nn/animais
Crie uma pasta onde armazenará suas imagens e anotações. Por exemplo, isso poderia ser ~/nn/animals/dataset
. Cada imagem precisará de um arquivo .txt
correspondente que descreva as anotações dessa imagem. O formato dos arquivos de anotação .txt
é muito específico. Você não pode criar esses arquivos manualmente, pois cada anotação precisa conter as coordenadas exatas da anotação. Consulte DarkMark ou outro software semelhante para fazer anotações em suas imagens. O formato de anotação YOLO é descrito nas Perguntas frequentes do Darknet/YOLO.
Crie os arquivos de texto "train" e "valid" nomeados no arquivo .data
. Esses dois arquivos de texto precisam listar individualmente todas as imagens que Darknet deve usar para treinar e validar no cálculo do mAP%. Exatamente uma imagem por linha. O caminho e os nomes dos arquivos podem ser relativos ou absolutos.
Modifique seu arquivo .cfg
com um editor de texto.
Certifique-se de que batch=64
.
Observe as subdivisões. Dependendo das dimensões da rede e da quantidade de memória disponível na sua GPU, pode ser necessário aumentar as subdivisões. O melhor valor a ser usado é 1
, então comece com isso. Consulte o FAQ Darknet/YOLO se 1
não funcionar para você.
Nota max_batches=...
. Um bom valor para usar no início é 2.000 x o número de aulas. Neste exemplo, temos 4 animais, então 4 * 2.000 = 8.000. O que significa que usaremos max_batches=8000
.
Observe steps=...
. Isso deve ser definido como 80% e 90% de max_batches
. Para este exemplo usaríamos steps=6400,7200
já que max_batches
foi definido como 8000.
Observe width=...
e height=...
. Estas são as dimensões da rede. O FAQ Darknet/YOLO explica como calcular o melhor tamanho a ser usado.
Procure todas as instâncias da linha classes=...
e modifique-a com o número de classes em seu arquivo .names
. Para este exemplo, usaríamos classes=4
.
Pesquise todas as instâncias da linha filters=...
na seção [convolutional]
antes de cada seção [yolo]
. O valor a ser usado é (número_de_classes + 5) * 3. Significado para este exemplo, (4 + 5) * 3 = 27. Portanto, usaríamos filters=27
nas linhas apropriadas.
Comece a treinar! Execute os seguintes comandos:
cd ~/nn/animais/ detector darknet -map -dont_show trem animais.data animais.cfg
Ser paciente. Os melhores pesos serão salvos como animals_best.weights
. E o andamento do treinamento pode ser observado visualizando o arquivo chart.png
. Consulte o FAQ Darknet/YOLO para parâmetros adicionais que você pode querer usar ao treinar uma nova rede.
Se quiser ver mais detalhes durante o treinamento, adicione o parâmetro --verbose
. Por exemplo:
detector darknet -map -dont_show --verbose trem animais.data animais.cfg
Para gerenciar seus projetos Darknet/YOLO, anotar imagens, verificar suas anotações e gerar os arquivos necessários para treinar com Darknet, consulte DarkMark.
Para uma CLI alternativa robusta ao Darknet, para usar imagens lado a lado, para rastreamento de objetos em seus vídeos ou para uma API C++ robusta que pode ser facilmente usada em aplicativos comerciais, consulte DarkHelp.
Veja se o FAQ Darknet/YOLO pode ajudar a responder suas perguntas.
Veja os muitos tutoriais e vídeos de exemplo no canal de Stéphane no YouTube
Se você tiver uma pergunta de suporte ou quiser conversar com outros usuários Darknet/YOLO, entre no servidor de discórdia Darknet/YOLO.
Última atualização em 02/11/2024:
troque qsort() por std::sort() onde usado durante o treinamento (alguns outros obscuros permanecem)
livre-se de check_mistakes, getchar() e system()
converter Darknet para usar o compilador C++ (g++ no Linux, VisualStudio no Windows)
corrigir compilação do Windows
corrigir suporte a Python
construir biblioteca darknet
reativar rótulos em previsões (código "alfabeto")
reativar o código CUDA/GPU
reativar CUDNN
reativar a metade CUDNN
não codifique a arquitetura CUDA
melhores informações sobre a versão CUDA
reativar AVX
remova soluções antigas e Makefile
tornar o OpenCV não opcional
remova a dependência da antiga biblioteca pthread
remover STB
reescrever CMakeLists.txt para usar a nova detecção CUDA
remova o código "alfabeto" antigo e exclua as mais de 700 imagens em dados/rótulos
construir fora da fonte
tem melhor saída de número de versão
otimizações de desempenho relacionadas ao treinamento (tarefa contínua)
otimizações de desempenho relacionadas à inferência (tarefa em andamento)
passagem por referência sempre que possível
limpar arquivos .hpp
reescrever darknet.h
não converta cv::Mat
para void*
mas use-o como um objeto C++ adequado
corrigir ou ser consistente na forma como a estrutura interna image
é usada
correção de compilação para dispositivos Jetson baseados em ARM
dispositivos Jetson originais (é improvável que sejam corrigidos, pois não são mais suportados pela NVIDIA e não possuem um compilador C++ 17)
novos dispositivos Jetson Orin estão funcionando
corrigir API Python em V3
é necessário melhor suporte para Python (algum desenvolvedor Python quer ajudar com isso?)
troque printf() por std::cout (em andamento)
veja o suporte para câmera zed antiga
análise de linha de comando melhor e mais consistente (em andamento)
remova todo o código char*
e substitua por std::string
não oculte avisos e limpe os avisos do compilador (em andamento)
melhor uso de cv::Mat
em vez da estrutura image
personalizada em C (em andamento)
substitua a funcionalidade list
antiga por std::vector
ou std::list
corrigir suporte para imagens em escala de cinza de 1 canal
adicionar suporte para imagens de canal N onde N > 3 (por exemplo, imagens com profundidade adicional ou canal térmico)
limpeza de código contínua (em andamento)
corrigir problemas de CUDA/CUDNN com todas as GPUs
reescrever o código CUDA + cuDNN
considere adicionar suporte para GPUs não-NVIDIA
caixas delimitadoras giradas ou algum tipo de suporte de "ângulo"
pontos-chave/esqueletos
mapas de calor (em andamento)
segmentação