Платформа обнаружения объектов Darknet и YOLO
Составлено редактором Downcodes
Darknet — это платформа нейронных сетей с открытым исходным кодом, написанная на C, C++ и CUDA.
YOLO (You Only Look Once) — это современная система обнаружения объектов в реальном времени, работающая в рамках Darknet.
Узнайте, как Hank.ai помогает сообществу Darknet/YOLO
Анонсируем Darknet V3 «Джаз»
Посетите сайт Darknet/YOLO.
Пожалуйста, прочтите FAQ по Darknet/YOLO.
Присоединяйтесь к серверу Discord Darknet/YOLO
Статьи
1. Бумага YOLOv7
2. Бумага Scaled-YOLOv4
3. Бумага YOLOv4
4. Бумага YOLOV3
Общая информация
Платформа Darknet/YOLO по-прежнему быстрее и точнее, чем другие платформы и версии YOLO.
Фреймворк полностью бесплатен и имеет открытый исходный код. Вы можете интегрировать Darknet/YOLO в существующие проекты и продукты, включая коммерческие, без лицензирования и оплаты.
Darknet V3 («Джаз»), выпущенный в октябре 2024 года, может использовать графические процессоры NVIDIA RTX 3090 для запуска видео набора данных LEGO со скоростью до 1000 кадров в секунду, то есть каждый видеокадр генерируется посредством чтения, изменения размера и обработки Darknet/YOLO.
Если вам нужна помощь или вы хотите обсудить Darknet/YOLO, присоединяйтесь к серверу Discord Darknet/YOLO: https://discord.gg/zSq8rtW
Версия Darknet/YOLO для ЦП может работать на простых устройствах, таких как Raspberry Pi, облачных серверах и серверах совместной работы, настольных компьютерах, ноутбуках и высокопроизводительном учебном оборудовании. Для версии Darknet/YOLO с графическим процессором требуется графический процессор NVIDIA с поддержкой CUDA.
Известно, что Darknet/YOLO работает на Linux, Windows и Mac. Пожалуйста, ознакомьтесь с инструкциями по сборке ниже.
Даркнет-версия
Оригинальные инструменты Darknet, написанные Джозефом Редмоном в 2013–2017 годах, не имели номеров версий. Мы думаем, что это версия 0.x.
Следующий популярный репозиторий Darknet, который поддерживал Алексей Бочковский в 2017-2021 годах, также не имеет номера версии. Мы считаем, что это версия 1.x.
Репозиторий Darknet, спонсируемый Hank.ai и поддерживаемый Стефаном Шареттом, начиная с 2023 года, является первым репозиторием, имеющим команду версии. С 2023 до конца 2024 года он возвращается к версии 2.х «Дуб».
Цель состоит в том, чтобы ознакомиться с базой кода, нарушая при этом как можно меньше существующих функций.
Перепишите шаги сборки, чтобы у нас был единый способ сборки для Windows и Linux с помощью CMake.
Преобразуйте базу кода для использования компилятора C++.
Улучшайте файлchart.png во время обучения.
Исправления ошибок и оптимизации, связанные с производительностью, в основном связанные с сокращением времени, необходимого для обучения сети.
Последняя ветвь этой кодовой базы — версия 2.1 в ветке v2.
Следующий этап разработки начнется в середине 2024 года, а релиз состоится в октябре 2024 года. Команда версии теперь возвращает 3.x «JAZZ».
Если вам нужно запустить любую из этих команд, вы всегда можете проверить предыдущую ветку v2. Сообщите нам, чтобы мы могли изучить вопрос о добавлении недостающих команд.
Удалены многие старые и неподдерживаемые команды.
Множество оптимизаций производительности, как во время обучения, так и во время вывода.
Старый API C был изменен; приложениям, использующим исходный API Darknet, потребуется внести некоторые незначительные изменения: https://darknetcv.ai/api/api.html.
Новый API Darknet V3 C и C++: https://darknetcv.ai/api/api.html.
Новые приложения и примеры кода в src-examples: https://darknetcv.ai/api/files.html.
MSCOCO Предварительно обученные веса
Для удобства несколько популярных версий YOLO предварительно обучены на наборе данных MSCOCO. Этот набор данных имеет 80 категорий, и его можно увидеть в текстовом файле cfg/coco.names.
Для тестирования Darknet/YOLO доступно несколько других, более простых наборов данных и предварительно обученных весов, например LEGO Gears и Rolodex. Подробности смотрите в FAQ по Darknet/YOLO.
Предварительно обученные веса MSCOCO можно загрузить из разных мест, а также из этого репозитория:
1. YOLov2, ноябрь 2016 г.
* YOLOv2-крошечный
*YOLOv2-полный
2. YOLov3, май 2018 г.
* YOLOv3-крошечный
*YOLOv3-полный
3. YOLov4, май 2020 г.
* YOLOv4-крошечный
*YOLOv4-полный
4. YOLov7, август 2022 г.
* YOLOv7-крошечный
*YOLOv7-полный
Предварительно обученные веса MSCOCO предназначены только для демонстрационных целей. Соответствующие файлы .cfg и .names для MSCOCO расположены в каталоге cfg. Пример команды:
`ударить
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights
darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
`
Обратите внимание, что необходимо обучать свою собственную сеть. MSCOCO обычно используется для подтверждения того, что все в порядке.
Здание
Различные методы сборки, доступные в прошлом (до 2023 г.), были объединены в единое решение. Для Darknet требуется C++17 или выше, OpenCV и используется CMake для создания необходимых файлов проекта.
Вам не нужно знать C++, чтобы создать, установить или запустить Darknet/YOLO, точно так же, как вам не нужно быть механиком, чтобы водить машину.
Гугл Колаб
Инструкции Google Colab такие же, как инструкции Linux. Существует несколько блокнотов Jupyter, в которых показано, как выполнять определенные задачи, например обучение новых сетей.
Проверьте блокнот в подкаталоге colab или следуйте инструкциям Linux ниже.
Метод CMake в Linux
Руководство по сборке Darknet в Linux
Необязательно: если у вас современный графический процессор NVIDIA, вы можете установить CUDA или CUDA+cuDNN прямо сейчас. Если Darknet установлен, он будет использовать ваш графический процессор для ускорения обработки изображений (и видео).
Вам необходимо удалить файл CMakeCache.txt из каталога сборки Darknet, чтобы заставить CMake повторно найти все необходимые файлы.
Не забудьте восстановить Даркнет.
Даркнет может работать и без него, но если вы хотите обучить собственную сеть, вам понадобится CUDA или CUDA+cuDNN.
Посетите https://developer.nvidia.com/cuda-downloads, чтобы загрузить и установить CUDA.
Посетите https://developer.nvidia.com/rdp/cudnn-download или https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview, чтобы загрузить. и установите cuDNN.
После установки CUDA убедитесь, что вы можете запустить nvcc и nvidia-smi. Возможно, вам придется изменить переменную PATH.
Если вы установите CUDA или CUDA+cuDNN позже или обновитесь до более новой версии программного обеспечения NVIDIA:
Эти инструкции предполагают (но не обязательны!) систему под управлением Ubuntu 22.04. Если вы используете другой дистрибутив, внесите необходимые изменения.
`бить
sudo apt-get install build-essential git libopencv-dev cmake
mkdir ~/srccd ~/src
git клон https://github.com/hank-ai/darknetcd даркнет
сборка mkdir buildcd
cmake -DCMAKEBUILDTYPE=Выпустить ..
сделать пакет -j4
sudo dpkg -i darknet-ВЕРСИЯ.deb
`
Если вы используете более старую версию CMake, вам необходимо обновить CMake перед запуском приведенной выше команды cmake. Чтобы обновить CMake в Ubuntu, вы можете использовать следующую команду:
`бить
sudo apt-get очистить cmake
sudo snap установить cmake --classic
`
Если вы используете bash в качестве командной оболочки, вам может потребоваться перезапустить оболочку. Если вы используете рыбу, она должна немедленно выбрать новый путь.
Продвинутые пользователи:
Если вы хотите создать установочный файл RPM вместо файла DEB, см. соответствующие строки в CM_package.cmake. Перед запуском пакета make -j4 вам необходимо отредактировать эти две строки:
`cmake
SET (CPACKGENERATOR "DEB")# SET (CPACKGENERATOR "RPM")
`
Для таких дистрибутивов, как Centos и OpenSUSE, вам необходимо переключить эти две строки в CM_package.cmake на:
`cmake
НАБОР (CPACK_GENERATOR «DEB»)
НАБОР (CPACK_GENERATOR «ОБ/МИН»)
`
Чтобы установить пакет после его сборки, используйте обычный менеджер пакетов вашего дистрибутива. Например, в системе на базе Debian, такой как Ubuntu:
`бить
sudo dpkg -i darknet-2.0.1-Linux.deb
`
При установке пакета .deb будут скопированы следующие файлы:
/usr/bin/darknet — это обычный исполняемый файл Darknet. Запустите версию darknet из CLI, чтобы убедиться, что она установлена правильно.
/usr/include/darknet.h — это API Darknet, используемый разработчиками C, C++ и Python.
/usr/include/darknet_version.h содержит информацию о версии для разработчиков.
/usr/lib/libdarknet.so — это библиотека, с которой могут ссылаться разработчики C, C++ и Python.
/opt/darknet/cfg/... — здесь хранятся все шаблоны .cfg.
Теперь все готово! Darknet встроен и установлен в /usr/bin/. Для проверки выполните следующую команду: версия даркнета.
Если у вас нет /usr/bin/darknet, это означает, что вы его не устанавливали, а просто собрали! Убедитесь, что у вас установлены файлы .deb или .rpm, как указано выше.
Метод Windows CMake
Эти инструкции предполагают чистую установку Windows 11 22H2.
Откройте обычное окно командной строки cmd.exe и выполните следующую команду:
`бить
winget установить Git.Git
winget установить Kitware.CMake
winget установить nsis.nsis
winget install Microsoft.VisualStudio.2022.Community
`
На этом этапе нам необходимо изменить установку Visual Studio, чтобы включить поддержку приложений C++:
1. Щелкните меню «Пуск» Windows и запустите «Установщик Visual Studio».
2. Нажмите «Изменить».
3. Выберите «Разработка настольных компьютеров с использованием C++».
4. Нажмите «Изменить» в правом нижнем углу, затем нажмите «Да».
После того, как все будет загружено и установлено, снова щелкните меню «Пуск» Windows и выберите «Командная строка разработчика для VS 2022». Не используйте PowerShell для этих действий, у вас возникнут проблемы!
Продвинутые пользователи:
Помимо запуска командной строки разработчика, вы также можете использовать обычную командную строку или ssh для входа в устройство и вручную запустить «Program FilesMicrosoft Visual Studio2022CommunityCommon7ToolsVsDevCmd.bat».
Если у вас есть командная строка разработчика, запущенная, как указано выше (не PowerShell!), выполните следующую команду для установки Microsoft VCPKG, который будет использоваться для сборки OpenCV:
`бить
компакт-диск c:mkdir c:srccd c:src
git-клон https://github.com/microsoft/vcpkgcd vcpkg
bootstrap-vcpkg.bat
.vcpkg.exe интегрировать установку
.vcpkg.exe интегрирует PowerShell
.vcpkg.exe install opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
Будьте терпеливы на этом последнем этапе, так как это может занять много времени. Это требует загрузки и сборки большого количества вещей.
Продвинутые пользователи:
Обратите внимание, что существует множество других дополнительных модулей, которые вы можете добавить при сборке OpenCV. Запустите .vcpkg.exe search opencv, чтобы просмотреть полный список.
Необязательно: если у вас современный графический процессор NVIDIA, вы можете установить CUDA или CUDA+cuDNN прямо сейчас. Если Darknet установлен, он будет использовать ваш графический процессор для ускорения обработки изображений (и видео).
Вам необходимо удалить файл CMakeCache.txt из каталога сборки Darknet, чтобы заставить CMake повторно найти все необходимые файлы.
Не забудьте восстановить Даркнет.
Даркнет может работать и без него, но если вы хотите обучить собственную сеть, вам понадобится CUDA или CUDA+cuDNN.
Посетите https://developer.nvidia.com/cuda-downloads, чтобы загрузить и установить CUDA.
Посетите https://developer.nvidia.com/rdp/cudnn-download или https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows, чтобы загрузить и установить cuDNN.
После установки CUDA убедитесь, что вы можете запускать nvcc.exe и nvidia-smi.exe. Возможно, вам придется изменить переменную PATH.
После загрузки cuDNN разархивируйте и скопируйте каталоги bin, include и lib в C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/[версия]/. Возможно, вам придется перезаписать некоторые файлы.
Если вы установите CUDA или CUDA+cuDNN позже или обновитесь до более новой версии программного обеспечения NVIDIA:
CUDA должен быть установлен после Visual Studio. Если вы обновляете Visual Studio, не забудьте переустановить CUDA.
После успешного завершения всех предыдущих шагов вам необходимо клонировать Darknet и собрать его. На этом этапе нам также нужно сообщить CMake, где находится vcpkg, чтобы он мог найти OpenCV и другие зависимости:
`бить
компакт-диск c: источник
git клон https://github.com/hank-ai/darknet.gitcd даркнет
сборка mkdir buildcd
cmake -DCMAKEBUILDTYPE=Выпуск -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake ..
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
Если вы получите сообщение об отсутствующей DLL CUDA или cuDNN (например, cublas64_12.dll), вручную скопируйте файл CUDA .dll в тот же выходной каталог, что и Darknet.exe. Например:
`бить
скопировать «C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll» src-cliRelease
`
(Вот пример! Убедитесь, какую версию вы используете, и выполните соответствующую команду для того, что вы установили.)
После копирования файлов повторно запустите последнюю команду msbuild.exe, чтобы сгенерировать установочный пакет NSIS:
`бить
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
Продвинутые пользователи:
Обратите внимание, что выходные данные команды cmake — это обычный файл решения Visual Studio, Darknet.sln. Если вы разработчик программного обеспечения, который часто использует графический интерфейс Visual Studio вместо msbuild.exe для создания проектов, вы можете игнорировать командную строку и загрузить проект Darknet в Visual Studio.
Теперь у вас должен быть файл, который вы можете запустить: C:srcDarknetbuildsrc-cliReleasedarknet.exe. Для проверки выполните следующую команду: Версия C:srcDarknetbuildsrc-cliReleasedarknet.exe.
Чтобы правильно установить Darknet, библиотеки, включаемые файлы и необходимые библиотеки DLL, запустите мастер установки NSIS, созданный на последнем шаге. Проверьте файл darknet-VERSION.exe в каталоге сборки. Например:
`бить
даркнет-2.0.31-win64.exe
`
Установка установочного пакета NSIS позволит:
Создайте каталог под названием Darknet, например C:Program FilesDarknet.
Установите приложение CLI, darknet.exe и другие примеры приложений.
Установите необходимые сторонние файлы .dll, например файлы OpenCV.
Установите необходимые файлы Darknet .dll, .lib и .h, чтобы использовать darknet.dll из другого приложения.
Установите файл шаблона .cfg.
Теперь все готово! После завершения работы мастера установки Darknet будет установлен в C:Program FilesDarknet. Для проверки выполните следующую команду: Версия C:Program FilesDarknetbindarknet.exe.
Если у вас нет C:/Program Files/darknet/bin/darknet.exe, это означает, что вы его не устанавливали, а просто собрали! Обязательно заполните каждую панель мастера установки NSIS на предыдущем шаге.
Использование даркнета
интерфейс командной строки
Ниже приведен не полный список всех команд, поддерживаемых Darknet.
В дополнение к интерфейсу командной строки Darknet также обратите внимание на интерфейс командной строки проекта DarkHelp, который предоставляет альтернативный интерфейс командной строки Darknet/YOLO. DarkHelp CLI также имеет несколько расширенных функций, которых нет в Darknet. Вы можете использовать Darknet CLI и DarkHelp CLI одновременно, они не являются взаимоисключающими.
Для большинства команд, показанных ниже, вам понадобится файл .weights и соответствующие файлы .names и .cfg. Вы можете обучить свою собственную сеть (настоятельно рекомендуется!) или загрузить нейронную сеть, которую обучили другие и которая находится в свободном доступе в Интернете. Примеры наборов данных для предварительного обучения включают в себя:
LEGO Gears (находите объекты на изображениях)
Ролодекс (найти текст на изображении)
MSCOCO (стандартное обнаружение целей категории 80)
Выполняемые команды включают в себя:
Перечислите некоторые команды и параметры, которые можно запустить:
`бить
помощь в даркнете
`
Проверьте версию:
`бить
даркнет-версия
`
Используйте изображения, чтобы делать прогнозы:
V2: тест детектора даркнета cars.data cars.cfg cars_best.weights image1.jpg
V3: darknet02displayannotatedimages cars.cfg image1.jpg
DarkHelp: DarkHelp cars.cfg cars.cfg cars_best.weights image1.jpg
Выходные координаты:
V2: тест детектора даркнета животные.данные животные.cfg животныеbest.weights -extoutput собака.jpg
V3: darknet01inference_images животные собака.jpg
DarkHelp: DarkHelp --json животные.cfg животные.названия животных_лучшие.веса собаки.jpg
Используйте видео:
V2: демо-версия детектора даркнета животные.данные животные.cfg животныеbest.weights -extoutput test.mp4
V3: darknet03display_videos животные.cfg test.mp4
DarkHelp: DarkHelp животные.cfg животные.названия животных_лучшие.веса test.mp4
Чтение с веб-камеры:
V2: демо-версия детектора даркнета животные.данные животные.cfg животные_best.weights -c 0
V3: darknet08display_webcam животные
Сохраните результаты на видео:
V2: демо-версия детектора даркнета животные.данные животные.cfg животныеbest.weights test.mp4 -outfilename res.avi
V3: darknet05processvideosmultithreaded животные.cfg животные.названия животных_лучшие.весовой тест.mp4
DarkHelp: DarkHelp животные.cfg животные.названия животных_лучшие.веса test.mp4
JSON:
V2: демо-версия детектора даркнета животные.данные животные.cfg животныеbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson животные image1.jpg
DarkHelp: DarkHelp --json животные.названия животных.cfg животные_best.weights image1.jpg
Запуск на конкретном графическом процессоре:
V2: демо-версия детектора даркнета животные.данные животные.cfg животные_лучшие.веса -i 1 test.mp4
Проверяем точность нейронной сети:
`бить
Карта детектора даркнета вождение.данные вождение.cfg вождение_best.weights ...
Имя идентификатора AvgPrecision TP FN FP TN Точность ErrorRate Специфичность повторного вызова FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ---------- ----------
0 автомобиль 91,2495 32648 3903 5826 65129 0,9095 0,0905 0,8486 0,8932 0,9179 0,0821
1 мотоцикл 80,4499 2936 513 569 5393 0,8850 0,1150 0,8377 0,8513 0,9046 0,0954
2 велосипеда 89,0912 570 124 104 3548 0,9475 0,0525 0,8457 0,8213 0,9715 0,0285
3 человека 76,7937 7072 1727 2574 27523 0,8894 0,1106 0,7332 0,8037 0,9145 0,0855
4 много машин 64,3089 1068 509 733 11288 0,9087 0,0913 0,5930 0,6772 0,9390 0,0610
5 зеленый свет 86,8118 1969 239 510 4116 0,8904 0,1096 0,7943 0,8918 0,8898 0,1102
6 желтый свет 82,0390 126 38 30 1239 0,9525 0,0475 0,8077 0,7683 0,9764 0,0236
7 красный свет 94,1033 3449 217 451 4643 0,9237 0,0763 0,8844 0,9408 0,9115 0,0885
`
Проверьте точность mAP@IoU=75:
`бить
Карта детектора даркнета животные.данные животные.cfg животныеbest.weights -iouthresh 0.75
`
Пересчет опорных точек лучше всего производить в DarkMark, поскольку он запускается 100 раз подряд и выбирает лучшую опорную точку из всех рассчитанных опорных точек. Но если вы хотите запускать старые версии в Даркнете:
`ударить
детектор даркнета кальканчоры животные.данные -numof_clusters 6 -ширина 320 -высота 256
`
Обучите новую сеть:
`бить
детектор даркнета -map -dont_show train животные.данные животные.cfg
`
(См. также раздел обучения ниже)
Обучение
Быстрые ссылки на соответствующие разделы FAQ по Darknet/YOLO:
Как мне настроить файлы и каталоги?
Какой профиль мне следует использовать?
Какую команду мне следует использовать при обучении собственной сети?
Создайте все необходимые файлы Darknet с помощью DarkMark — самого простого способа аннотирования и обучения. Это определенно рекомендуемый способ обучения новых нейронных сетей.
Если вы хотите вручную настроить различные файлы для обучения пользовательской сети:
1. Создайте новую папку для хранения файлов. В этом примере будет создана нейронная сеть для обнаружения животных, поэтому будет создан следующий каталог: ~/nn/animals/.
2. Скопируйте один из файлов конфигурации Darknet, который хотите использовать в качестве шаблона. Например, см. cfg/yolov4-tiny.cfg. Поместите его в созданную вами папку. В этом примере у нас теперь есть ~/nn/animals/animals.cfg.
3. Создайте текстовый файл Animals.names в той же папке, где вы разместили файл конфигурации. В этом примере теперь у нас есть ~/nn/animals/animals.names.
4. С помощью текстового редактора отредактируйте файл Animals.names. Перечислите категории, которые вы хотите использовать. В каждой строке должна быть только одна запись, пустых строк и комментариев быть не должно. В этом примере файл .names будет содержать ровно 4 строки:
`
собака
кот
птица
лошадь
`
5. Создайте текстовый файл Animals.data в той же папке. В этом примере файл .data будет содержать:
`
занятия = 4
поезд = /home/имя пользователя/nn/animals/animals_train.txt
действительный = /home/имя пользователя/nn/animals/animals_valid.txt
имена = /home/имя_пользователя/nn/animals/animals.names
резервная копия = /home/имя пользователя/nn/animals
`
6. Создайте папку для хранения изображений и аннотаций. Например, это может быть ~/nn/animals/dataset. Для каждого изображения требуется соответствующий файл .txt, описывающий аннотации к этому изображению. Формат файлов комментариев .txt очень специфичен. Вы не можете создать эти файлы вручную, поскольку каждая аннотация должна содержать точные координаты аннотации. Пожалуйста, обратитесь к DarkMark или другому подобному программному обеспечению для аннотирования ваших изображений. Формат аннотаций YOLO описан в FAQ по Darknet/YOLO.
7. Создайте «обучаемые» и «действительные» текстовые файлы, имена которых указаны в файле .data. В этих двух текстовых файлах необходимо перечислить все изображения, которые Darknet должен использовать для обучения и проверки (при расчете mAP%) соответственно. Ровно одно изображение в строке. Пути и имена файлов могут быть относительными или абсолютными.
8. Воспользуйтесь текстовым редактором, чтобы изменить файл .cfg.
9. Убедитесь, что партия = 64.
10. Обратите внимание на подразделения. В зависимости от размера сети и доступной памяти вашего графического процессора вам может потребоваться увеличить количество подразделений. Лучшее значение — 1, поэтому начните с него. Если 1 вам не подходит, прочтите FAQ по Darknet/YOLO.
11. Обратите внимание: maxbatches=…. Хорошим значением для начала является количество категорий, умноженное на 2000. В этом примере у нас 4 животных, поэтому 4 * 2000 = 8000. Это означает, что мы будем использовать maxbatches=8000.
12. Обратите внимание на шаги =…. Должно быть установлено значение 80% и 90% от максимальных пакетов. В этом примере, поскольку для параметра maxbatches установлено значение 8000, мы будем использовать шаги = 6400,7200.
13. Обратите внимание на ширину=... и высоту=.... Это сетевые измерения. Часто задаваемые вопросы Darknet/YOLO объясняют, как рассчитать оптимальный размер для использования.
14. Найдите все экземпляры строки groups=... и измените ее, указав количество классов в файле .names. В этом примере мы будем использовать классы=4.
15. Найдите экземпляры всех строк filter=... в разделе [convolutional] перед каждым разделом [yolo]. Используемое значение: (количество категорий + 5) 3. Это означает, что в данном примере (4 + 5) 3 = 27. Поэтому мы будем использовать фильтры=27 в соответствующих строках.
Начни тренироваться! Выполните следующую команду:
`ударить
компакт-диск ~/nn/животные/
детектор даркнета -map -dont_show train животные.данные животные.cfg
`
Потерпи. Лучшие веса будут сохранены как животные_best.weights. Просматривая файлchart.png, вы можете наблюдать за ходом обучения. Дополнительные параметры, которые вы можете использовать при обучении новой сети, см. в FAQ по Darknet/YOLO.
Если вы хотите видеть более подробную информацию во время обучения, добавьте параметр --verbose. Например:
`ударить
детектор даркнета -map -dont_show --verbose train животные.данные животные.cfg
`
Другие инструменты и ссылки
Чтобы управлять своим проектом Darknet/YOLO, комментировать изображения, проверять аннотации и создавать необходимые файлы для обучения с помощью Darknet, см. раздел DarkMark.
См. DarkHelp для получения надежной альтернативы CLI Darknet, использующей коллажи изображений, отслеживание объектов в ваших видео или надежный API C++, который можно легко использовать в коммерческих приложениях.
Посмотрите, поможет ли FAQ по Darknet/YOLO ответить на ваш вопрос.
Посмотрите множество руководств и видеороликов с примерами на канале Стефана на YouTube.
Если у вас есть вопросы по поддержке или вы хотите пообщаться с другими пользователями Darknet/YOLO, присоединяйтесь к серверу Discord Darknet/YOLO.
Дорожная карта
Последнее обновление: 30 октября 2024 г.
Завершенный
Заменен qsort() на std::sort() во время обучения (еще существуют некоторые другие непонятные функции)
Удалите check_mistakes, getchar() и system().
Преобразование Darknet для использования компилятора C++ (g++ в Linux, Visual Studio в Windows)
Исправление сборки Windows
Исправлена поддержка Python
Создайте библиотеку даркнета
Повторно включить метки для подсказок (код «Алфавит»)
Повторно включите код CUDA/GPU.
Повторно включить CUDNN
Повторно включить половину CUDNN
Не кодируйте архитектуру CUDA жестко.
Улучшенная информация о версии CUDA
Повторно включить AVX
Удалить старое решение и Makefile
Сделать OpenCV необязательным
Удалить зависимость от старой библиотеки pthread
Удалить приставку
Перепишите CMakeLists.txt, чтобы использовать новое обнаружение CUDA.
Удален старый «алфавитный» код и удалено более 700 изображений в данных/метках.
Создайте внешний исходный код
Улучшите вывод номера версии
Оптимизация производительности, связанная с обучением (текущие задачи)
Оптимизация производительности, связанная с выводом (текущие задачи)
Используйте ссылки по значению, когда это возможно.
Очистить файлы .hpp
Переписать darknet.h
Не преобразуйте cv::Mat в void, вместо этого используйте его как правильный объект C++.
Исправьте или сохраните последовательное использование внутренних структур изображений.
Исправлена сборка для устройств Jetson на базе ARM.
Оригинальные устройства Jetson вряд ли будут исправлены, поскольку они больше не поддерживаются NVIDIA (нет компилятора C++17).
Новое устройство Jetson Orin в действии
Исправить API Python в версии 3.
Нужна лучшая поддержка Python (есть ли разработчики Python, которые хотят помочь с этим?)
краткосрочные цели
Замените printf() на std::cout (в разработке)
Изучаем поддержку старой камеры Zed
Улучшенный и более последовательный анализ командной строки (в разработке)
среднесрочные цели
Удалите все коды символов и замените их на std::string.
Не скрывать предупреждения и очищать предупреждения компилятора (работа продолжается)
Лучше использовать cv::Mat вместо пользовательских структур изображений в C (работа в стадии разработки)
Замените старые функции списка на std::vector или std::list.
Исправлена поддержка одноканальных изображений в оттенках серого.
Добавить поддержку N-канальных изображений, где N > 3 (например, изображения с дополнительной глубиной или тепловыми каналами).
Текущая очистка кода (в процессе)
долгосрочные цели
Исправьте проблемы CUDA/CUDNN для всех графических процессоров.
Перепишите код CUDA+cuDNN.
Исследование по добавлению поддержки графических процессоров сторонних производителей.
Повернутая ограничительная рамка или какая-то «угловая» опора.
ключевые точки/скелет
Тепловая карта (в разработке)
сегментация