Darknet Object Detection Framework und YOLO
Darknet ist ein Open-Source-Framework für neuronale Netzwerke, das in C, C++ und CUDA geschrieben ist.
YOLO (You Only Look Once) ist ein hochmodernes Echtzeit-Objekterkennungssystem, das im Darknet-Framework läuft.
Lesen Sie, wie Hank.ai der Darknet/YOLO-Community hilft
Ankündigung von Darknet V3 „Jazz“
Siehe die Darknet/YOLO-Website
Bitte lesen Sie die Darknet/YOLO-FAQ durch
Treten Sie dem Darknet/YOLO-Discord-Server bei
Papiere
1. Papier YOLOv7
2. Papierskalierung-YOLOv4
3. Papier YOlov4
4. Papier YOlov3
Allgemeine Informationen
Das Darknet/YOLO-Framework ist weiterhin schneller und genauer als andere Frameworks und Versionen von YOLO.
Dieses Framework ist sowohl völlig kostenlos als auch Open Source. Sie können Darknet/YOLO ohne Lizenz oder Gebühr in bestehende Projekte und Produkte – auch kommerzielle – einbinden.
Darknet V3 („Jazz“), das im Oktober 2024 veröffentlicht wurde, kann die LEGO-Datensatzvideos bei Verwendung einer NVIDIA RTX 3090-GPU präzise mit bis zu 1000 FPS ausführen, was bedeutet, dass jedes Videobild von Darknet/YOLO in 1 Millisekunde gelesen, in der Größe geändert und verarbeitet wird weniger.
Bitte treten Sie dem Darknet/YOLO Discord-Server bei, wenn Sie Hilfe benötigen oder über Darknet/YOLO diskutieren möchten: https://discord.gg/zSq8rtW
Die CPU-Version von Darknet/YOLO kann auf einfachen Geräten wie Raspberry Pi, Cloud- und Colab-Servern, Desktops, Laptops und High-End-Trainingsgeräten ausgeführt werden. Die GPU-Version von Darknet/YOLO erfordert eine CUDA-fähige GPU von NVIDIA.
Darknet/YOLO funktioniert bekanntermaßen unter Linux, Windows und Mac. Siehe die Bauanleitung unten.
Darknet-Version
Das ursprüngliche Darknet-Tool, das 2013–2017 von Joseph Redmon geschrieben wurde, hatte keine Versionsnummer. Wir betrachten diese Version als 0.x.
Auch das nächste beliebte Darknet-Repo, das zwischen 2017 und 2021 von Alexey Bochkovskiy gepflegt wurde, hatte keine Versionsnummer. Wir betrachten diese Version als 1.x.
Das von Hank.ai gesponserte und ab 2023 von Stéphane Charette gepflegte Darknet-Repo war das erste mit einem Versionsbefehl. Von 2023 bis Ende 2024 gab es Version 2.x „OAK“ zurück.
Das Ziel bestand darin, so wenig wie möglich von der vorhandenen Funktionalität zu beeinträchtigen und sich gleichzeitig mit der Codebasis vertraut zu machen.
Zu den wichtigsten Änderungen in dieser Version gehören:
1. Die Build-Schritte wurden neu geschrieben, um eine einheitliche Möglichkeit zum Erstellen mit CMake unter Windows und Linux zu haben.
2. Konvertierte die Codebasis, um den C++-Compiler zu verwenden.
3. Verbessertes chart.png während des Trainings.
4. Fehlerbehebungen und leistungsbezogene Optimierungen, hauptsächlich im Zusammenhang mit der Verkürzung der Zeit, die zum Trainieren eines Netzwerks benötigt wird.
Der letzte Zweig dieser Codebasis ist Version 2.1 im v2-Zweig.
Die nächste Entwicklungsphase begann Mitte 2024 und wurde im Oktober 2024 veröffentlicht. Der Versionsbefehl gibt nun 3.x „JAZZ“ zurück.
Sie können jederzeit den vorherigen v2-Zweig auschecken, wenn Sie einen dieser Befehle ausführen müssen. Lassen Sie es uns wissen, damit wir prüfen können, ob fehlende Befehle wieder hinzugefügt werden können.
Zu den wichtigsten Änderungen in dieser Version gehören:
1. Viele alte und nicht gepflegte Befehle entfernt.
2. Viele Leistungsoptimierungen, sowohl beim Training als auch bei der Inferenz.
3. Die Legacy-C-API wurde geändert. Anwendungen, die die ursprüngliche Darknet-API verwenden, benötigen geringfügige Änderungen: https://darknetcv.ai/api/api.html
4. Neue Darknet V3 C- und C++-API: https://darknetcv.ai/api/api.html
5. Neue Apps und Beispielcode in src-examples: https://darknetcv.ai/api/files.html
Vortrainierte MSCOCO-Gewichte
Mehrere beliebte Versionen von YOLO wurden zur Vereinfachung auf dem MSCOCO-Datensatz vorab trainiert. Dieser Datensatz verfügt über 80 Klassen, die in der Textdatei cfg/coco.names eingesehen werden können.
Es stehen mehrere andere einfachere Datensätze und vorab trainierte Gewichte zum Testen von Darknet/YOLO zur Verfügung, beispielsweise LEGO Gears und Rolodex. Weitere Informationen finden Sie in den Darknet/YOLO-FAQ.
Die vorab trainierten MSCOCO-Gewichte können von verschiedenen Orten heruntergeladen werden und stehen auch in diesem Repo zum Download bereit:
1. YOLOv2, November 2016
- YOLOv2-tiny
- YOLOv2-voll
2. YOlov3, Mai 2018
- YOLOv3-tiny
- YOLOv3-voll
3. YOlov4, Mai 2020
- YOLOv4-tiny
- YOLOv4-voll
4. YOLOv7, August 2022
- YOLOv7-tiny
- YOLOv7-voll
Die vortrainierten MSCOCO-Gewichte werden nur zu Demozwecken bereitgestellt. Die entsprechenden .cfg- und .names-Dateien für MSCOCO befinden sich im cfg-Verzeichnis. Beispielbefehle:
`Bash
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights
darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
`
Beachten Sie, dass von den Menschen erwartet wird, dass sie ihre eigenen Netzwerke trainieren. MSCOCO wird normalerweise verwendet, um zu bestätigen, dass alles ordnungsgemäß funktioniert.
Gebäude
Die verschiedenen in der Vergangenheit (vor 2023) verfügbaren Build-Methoden wurden zu einer einzigen einheitlichen Lösung zusammengeführt. Darknet erfordert C++17 oder neuer, OpenCV und verwendet CMake, um die notwendigen Projektdateien zu generieren.
Sie müssen weder C++ beherrschen, um Darknet/YOLO zu erstellen, zu installieren noch auszuführen, noch müssen Sie Mechaniker sein, um ein Auto zu fahren.
Seien Sie vorsichtig, wenn Sie alten Tutorials mit komplizierteren Build-Schritten folgen oder Build-Schritte erstellen, die nicht mit dem Inhalt dieser Readme-Datei übereinstimmen. Die unten beschriebenen neuen Bauschritte begannen im August 2023.
Softwareentwicklern wird empfohlen, https://darknetcv.ai/ zu besuchen, um Informationen über die Interna des Darknet/YOLO-Objekterkennungs-Frameworks zu erhalten.
Google Colab
Die Google Colab-Anweisungen sind dieselben wie die Linux-Anweisungen. Es sind mehrere Jupyter-Notebooks verfügbar, die zeigen, wie bestimmte Aufgaben ausgeführt werden, beispielsweise das Training eines neuen Netzwerks.
Sehen Sie sich die Notizbücher im Unterverzeichnis colab an und/oder befolgen Sie die folgenden Linux-Anweisungen.
Linux CMake-Methode
1. Installieren Sie die erforderlichen Pakete:
`Bash
sudo apt-get install build-essential git libopencv-dev cmake
`
2. Klonen Sie das Darknet-Repository:
`Bash
mkdir ~/srccd ~/src
Git-Klon https://github.com/hank-ai/darknetcd Darknet
`
3. Erstellen Sie ein Build-Verzeichnis und führen Sie CMake aus:
`Bash
mkdir buildcd build
cmake -DCMAKEBUILDTYPE=Release ..
`
4. Darknet aufbauen:
`Bash
mache -j4
`
5. Packen und installieren Sie Darknet:
`Bash
Paket
sudo dpkg -i darknet-VERSION.deb
`
6. Installation überprüfen:
`Bash
Darknet-Version
`
Windows CMake-Methode
1. Installieren Sie die erforderlichen Pakete:
`Bash
Winget-Installation Git.Git Winget-Installation Kitware.CMake Winget-Installation nsis.nsis Winget-Installation Microsoft.VisualStudio.2022.Community
`
2. Ändern Sie die Visual Studio-Installation:
- Klicken Sie auf das „Windows-Start“-Menü und führen Sie „Visual Studio Installer“ aus.
- Klicken Sie auf Ändern.
- Wählen Sie Desktop-Entwicklung mit C++.
- Klicken Sie unten rechts auf „Ändern“ und dann auf „Ja“.
3. Öffnen Sie die Entwickler-Eingabeaufforderung für VS 2022:
- Klicken Sie auf das „Windows-Start“-Menü und wählen Sie „Entwickler-Eingabeaufforderung für VS 2022“. Verwenden Sie für diese Schritte nicht PowerShell.
4. Installieren Sie Microsoft VCPKG:
`Bash
cd c:mkdir c:srccd c:src git clone https://github.com/microsoft/vcpkgcd vcpkg
Bootstrap-vcpkg.bat
.vcpkg.exe integrieren
.vcpkg.exe installieren, powershell.vcpkg.exe integrieren, opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows installieren
`
5. Darknet-Repository klonen:
`Bash
cd c:src
Git-Klon https://github.com/hank-ai/darknet.gitcd Darknet
`
6. Erstellen Sie ein Build-Verzeichnis und führen Sie CMake aus:
`Bash
mkdir buildcd build
cmake -DCMAKEBUILDTYPE=Release -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake ..
`
7. Darknet aufbauen:
`Bash
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
`
8. Generieren Sie das NSIS-Installationspaket:
`Bash
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
9. Führen Sie den NSIS-Installationsassistenten aus:
- Öffnen Sie die Datei darknet-VERSION.exe im Build-Verzeichnis. Beispiel: darknet-2.0.31-win64.exe.
10. Installation überprüfen:
`Bash
C:ProgrammeDarknetbindarknet.exe-Version
`
Nutzung von Darknet
CLI
Im Folgenden finden Sie nicht die vollständige Liste aller von Darknet unterstützten Befehle.
Beachten Sie neben der Darknet-CLI auch die DarkHelp-Projekt-CLI, die eine alternative CLI zu Darknet/YOLO bietet. Die DarkHelp-CLI verfügt außerdem über mehrere erweiterte Funktionen, die im Darknet nicht direkt verfügbar sind. Sie können sowohl die Darknet-CLI als auch die DarkHelp-CLI zusammen verwenden, sie schließen sich nicht gegenseitig aus.
Für die meisten der unten gezeigten Befehle benötigen Sie die .weights-Datei mit den entsprechenden .names- und .cfg-Dateien. Sie können entweder Ihr eigenes Netzwerk trainieren (sehr empfehlenswert!) oder ein neuronales Netzwerk herunterladen, das bereits jemand trainiert und kostenlos im Internet zur Verfügung gestellt hat. Beispiele für vorab trainierte Datensätze sind:
1. LEGO Gears (Objekte in einem Bild finden)
2. Rolodex (Text in einem Bild finden)
3. MSCOCO (Standardobjekterkennung der 80er-Klasse)
Zu den auszuführenden Befehlen gehören:
1. Listen Sie einige mögliche auszuführende Befehle und Optionen auf:
`Bash
Darknet-Hilfe
`
2. Überprüfen Sie die Version:
`Bash
Darknet-Version
`
3. Vorhersagen anhand eines Bildes:
- V2:
`Bash
Darknet-Detektortest car.data car.cfg car_best.weights image1.jpg
`
- V3:
`Bash
darknet02displayannotatedimages cars.cfg image1.jpg
`
- DarkHelp:
`Bash
DarkHelp „cars.cfg“ „cars.cfg“ „cars_best.weights image1.jpg“.
`
4. Ausgabekoordinaten:
- V2:
`Bash
Darknet-Detektortest Animals.data Animals.cfg Animalsbest.weights -extoutput Dog.jpg
`
- V3:
`Bash
darknet01inference_images Tiere Hund.jpg
`
- DarkHelp:
`Bash
DarkHelp --json Animals.cfg Animals.names Animals_best.weights Hund.jpg
`
5. Arbeiten mit Videos:
- V2:
`Bash
Darknet-Detektor-Demo Animals.data Animals.cfg Animalsbest.weights -extoutput test.mp4
`
- V3:
`Bash
darknet03display_videos Animals.cfg test.mp4
`
- DarkHelp:
`Bash
DarkHelp Animals.cfg Animals.Names Animals_Best.Weights Test.mp4
`
6. Ablesen von einer Webcam:
- V2:
`Bash
Darknet-Detektor-Demo Animals.data Animals.cfg Animals_best.weights -c 0
`
- V3:
`Bash
darknet08display_webcam Tiere
`
7. Ergebnisse in einem Video speichern:
- V2:
`Bash
Darknet-Detektor-Demo Animals.data Animals.cfg Animalsbest.weights test.mp4 -outfilename res.avi
`
- V3:
`Bash
darknet05processvideosmultithreaded Animals.cfg Animals.Names Animals_Best.Weights Test.mp4
`
- DarkHelp:
`Bash
DarkHelp Animals.cfg Animals.Names Animals_Best.Weights Test.mp4
`
8. JSON:
- V2:
`Bash
Darknet-Detektor-Demo Animals.data Animals.cfg Animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
`
- V3:
`Bash
darknet06imagestojson Tiere image1.jpg
`
- DarkHelp:
`Bash
DarkHelp --json Animals.names Animals.cfg Animals_best.weights image1.jpg
`
9. Ausführung auf einer bestimmten GPU:
`Bash
Darknet-Detektor-Demo Animals.data Animals.cfg Animals_best.weights -i 1 test.mp4
`
10. So überprüfen Sie die Genauigkeit des neuronalen Netzwerks:
`Bash
Darknet-Detektorkarte fahren.daten fahren.cfg fahren_best.gewichte ...
`
Ausgabe:
`
ID-Name AvgPrecision TP FN FP TN Accuracy ErrorRate Precision Recall Specificity FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ----------- ------------
0 Fahrzeug 91,2495 32648 3903 5826 65129 0,9095 0,0905 0,8486 0,8932 0,9179 0,0821
1 Motorrad 80,4499 2936 513 569 5393 0,8850 0,1150 0,8377 0,8513 0,9046 0,0954
2 Fahrrad 89,0912 570 124 104 3548 0,9475 0,0525 0,8457 0,8213 0,9715 0,0285
3 Personen 76,7937 7072 1727 2574 27523 0,8894 0,1106 0,7332 0,8037 0,9145 0,0855
4 viele Fahrzeuge 64,3089 1068 509 733 11288 0,9087 0,0913 0,5930 0,6772 0,9390 0,0610
5 grünes Licht 86,8118 1969 239 510 4116 0,8904 0,1096 0,7943 0,8918 0,8898 0,1102
6 gelbes Licht 82,0390 126 38 30 1239 0,9525 0,0475 0,8077 0,7683 0,9764 0,0236
7 rotes Licht 94,1033 3449 217 451 4643 0,9237 0,0763 0,8844 0,9408 0,9115 0,0885
`
11. So überprüfen Sie die Genauigkeit mAP@IoU=75:
`Bash
Darknet-Detektorkarte Animals.data Animals.cfg Animalsbest.weights -iouthresh 0,75
`
12. Anker neu berechnen:
- Am besten in DarkMark machen.
- Im Darknet verwenden Sie:
`Bash
Darknet-Detektor calcanchors Animals.data -numof_clusters 6 -width 320 -height 256
`
13. Trainieren Sie ein neues Netzwerk:
`Bash
cd ~/nn/animals/
Darknet-Detektor -map -dont_show train Animals.data Animals.cfg
`
Ausbildung
Schnelle Links zu relevanten Abschnitten der Darknet/YOLO-FAQ:
1. Wie soll ich meine Dateien und Verzeichnisse einrichten?
2. Welche Konfigurationsdatei soll ich verwenden?
3. Welchen Befehl sollte ich beim Training meines eigenen Netzwerks verwenden?
Der einfachste Weg zum Kommentieren und Trainieren ist die Verwendung von DarkMark zum Erstellen aller erforderlichen Darknet-Dateien. Dies ist definitiv die empfohlene Methode, ein neues neuronales Netzwerk zu trainieren.
Wenn Sie die verschiedenen Dateien lieber manuell einrichten möchten, um ein benutzerdefiniertes Netzwerk zu trainieren:
1. Erstellen Sie einen neuen Ordner für Ihr Projekt:
– Für dieses Beispiel wird ein neuronales Netzwerk zur Erkennung von Tieren erstellt, daher wird das folgende Verzeichnis erstellt: ~/nn/animals/.
2. Kopieren Sie eine Darknet-Konfigurationsdatei als Vorlage:
- Kopieren Sie beispielsweise cfg/yolov4-tiny.cfg in den Projektordner. Sie haben jetzt ~/nn/animals/animals.cfg.
3. Erstellen Sie eine Animals.names-Textdatei:
– Diese Datei enthält die Liste der Klassen, die Sie erkennen möchten, eine pro Zeile. Zum Beispiel:
`
Hund
Katze
Vogel
Pferd
`
4. Erstellen Sie eine Animals.data-Textdatei:
– Diese Datei gibt die Pfade zu den Trainings- und Validierungsdaten sowie die Namen und Sicherungsverzeichnisse an. Zum Beispiel:
`
Klassen=4
train=/home/username/nn/animals/animals_train.txt
valid=/home/username/nn/animals/animals_valid.txt
Namen=/home/Benutzername/nn/animals/animals.names
backup=/home/username/nn/animals
`
5. Erstellen Sie einen Ordner für Ihre Bilder und Anmerkungen:
– Dies könnte beispielsweise ~/nn/animals/dataset sein. Für jedes Bild ist eine entsprechende TXT-Datei erforderlich, die die Anmerkungen für dieses Bild beschreibt. Das Format der TXT-Anmerkungsdateien ist sehr spezifisch. Sie können diese Dateien nicht manuell erstellen, da jede Anmerkung die genauen Koordinaten für die Anmerkung enthalten muss. Sehen Sie sich DarkMark oder eine andere ähnliche Software an, um Ihre Bilder mit Anmerkungen zu versehen. Das YOLO-Annotationsformat wird in den Darknet/YOLO-FAQ beschrieben.
6. Erstellen Sie die Textdateien „train“ und „valid“:
– Diese beiden Textdateien müssen alle Bilder einzeln auflisten, die Darknet zum Training und zur Validierung bei der Berechnung des mAP% verwenden muss. Genau ein Bild pro Zeile. Der Pfad und die Dateinamen können relativ oder absolut sein.
7. Ändern Sie Ihre .cfg-Datei:
- Batch: Auf 64 eingestellt.
- Unterteilungen: Beginnen Sie mit 1. Sehen Sie sich die Darknet/YOLO-FAQ an, wenn Sie dies basierend auf der Speicherverfügbarkeit anpassen müssen.
- maxbatches: Ein guter Startwert ist 2000 numberof_classes. In diesem Beispiel haben wir 4 Tiere, also 4 2000 = 8000.
- Schritte: Auf 80 % und 90 % der maximalen Batches einstellen. Für dieses Beispiel würden wir „steps=6400,7200“ verwenden, da „maxbatches“ auf 8000 festgelegt war.
- Breite und Höhe: Dies sind die Netzwerkabmessungen. Die Darknet/YOLO-FAQ erklärt, wie man die beste Größe berechnet.
- Klassen: Ändern Sie diese Zeile mit der Anzahl der Klassen in Ihrer .names-Datei. Für dieses Beispiel würden wir „classes=4“ verwenden.
- Filter: Ändern Sie im Abschnitt [convolutional] vor jedem Abschnitt [yolo] filter=... mit dem Wert (numberofclasses + 5) * 3. Für dieses Beispiel würden wir filter=27 verwenden.
8. Beginnen Sie mit dem Training:
`Bash
cd ~/nn/animals/
Darknet-Detektor -map -dont_show train Animals.data Animals.cfg
`
Sei geduldig. Die besten Gewichte werden als Animals_best.weights gespeichert. Der Trainingsfortschritt kann durch Betrachten der Datei chart.png beobachtet werden. Weitere Parameter, die Sie möglicherweise beim Training eines neuen Netzwerks verwenden möchten, finden Sie in den Darknet/YOLO-FAQ.
Wenn Sie während des Trainings weitere Details sehen möchten, fügen Sie den Parameter --verbose hinzu. Zum Beispiel:
`Bash
Darknet-Detektor -map -dont_show --verbose train Animals.data Animals.cfg
`
Andere Tools und Links
1. DarkMark: Um Ihre Darknet-/YOLO-Projekte zu verwalten, Bilder zu kommentieren, Ihre Anmerkungen zu überprüfen und die notwendigen Dateien für das Training mit Darknet zu generieren.
2. DarkHelp: Für eine robuste alternative CLI zu Darknet, zur Verwendung von Bildkacheln, zur Objektverfolgung in Ihren Videos oder für eine robuste C++-API, die problemlos in kommerziellen Anwendungen verwendet werden kann.
3. Darknet/YOLO-FAQ: Zur Beantwortung Ihrer Fragen.
4. Stéphanes YouTube-Kanal: Für Tutorials und Beispielvideos.
5. Darknet/YOLO-Discord-Server: Um mit anderen Darknet/YOLO-Benutzern zu chatten und um Unterstützung zu bitten.
Roadmap
Letzte Aktualisierung 30.10.2024:
Vollendet
1. Tauschen Sie qsort() gegen std::sort() aus, wenn es während des Trainings verwendet wird.
2. Entfernen Sie check_mistakes, getchar() und system().
3. Konvertieren Sie Darknet, um den C++-Compiler zu verwenden.
4. Windows-Build reparieren.
5. Korrigieren Sie die Python-Unterstützung.
6. Erstellen Sie eine Darknet-Bibliothek.
7. Aktivieren Sie die Beschriftungen für Vorhersagen wieder („Alphabet“-Code).
8. Aktivieren Sie den CUDA/GPU-Code erneut.
9. Aktivieren Sie CUDNN erneut.
10. Aktivieren Sie die CUDNN-Hälfte erneut.
11. Codieren Sie die CUDA-Architektur nicht hart.
12. Bessere CUDA-Versionsinformationen.
13. Aktivieren Sie AVX erneut.
14. Entfernen Sie alte Lösungen und Makefile.
15. Machen Sie OpenCV nicht optional.
16. Entfernen Sie die Abhängigkeit von der alten pthread-Bibliothek.
17. STB entfernen.
18. Schreiben Sie CMakeLists.txt neu, um die neue CUDA-Erkennung zu verwenden.
19. Entfernen Sie den alten „Alphabet“-Code und löschen Sie die über 700 Bilder in Daten/Beschriftungen.
20. Erstellen Sie Out-of-Source.
21. Bessere Ausgabe der Versionsnummer.
22. Leistungsoptimierungen im Zusammenhang mit dem Training (laufende Aufgabe).
23. Leistungsoptimierungen im Zusammenhang mit Inferenz (laufende Aufgabe).
24. Pass-by-Referenz, wo möglich.
25. Bereinigen Sie .hpp-Dateien.
26. Schreiben Sie darknet.h neu.
27. Wandeln Sie cv::Mat nicht in void* um, sondern verwenden Sie es als richtiges C++-Objekt.
28. Korrigieren Sie die Art und Weise, wie die interne Bildstruktur verwendet wird, oder seien Sie konsistent.
29. Build für ARM-basierte Jetson-Geräte korrigiert.
30. Neue Jetson Orin-Geräte funktionieren.
31. Korrigieren Sie die Python-API in V3.
Kurzfristige Ziele
1. Tauschen Sie printf() gegen std::cout aus.
2. Sehen Sie sich die Unterstützung für alte Zed-Kameras an.
3. Bessere und konsistentere Befehlszeilenanalyse.
Mittelfristige Ziele
1. Entfernen Sie den gesamten char*-Code und ersetzen Sie ihn durch std::string.
2. Warnungen nicht ausblenden und Compiler-Warnungen bereinigen.
3. Bessere Verwendung von cv::Mat anstelle der benutzerdefinierten Bildstruktur in C.
4. Ersetzen Sie die alte Listenfunktionalität durch std::vector oder std::list.
5. Korrektur der Unterstützung für 1-Kanal-Graustufenbilder.
6. Fügen Sie Unterstützung für N-Kanal-Bilder hinzu, bei denen N > 3 ist.
7. Laufende Codebereinigung.
Langfristige Ziele
1. Beheben Sie CUDA/CUDNN-Probleme mit allen GPUs.
2. Schreiben Sie den CUDA+cuDNN-Code neu.
3. Erwägen Sie die Hinzufügung von Unterstützung für Nicht-NVIDIA-GPUs.
4. Gedrehte Begrenzungsrahmen oder eine Art „Winkel“-Unterstützung.
5. Schlüsselpunkte/Skelette.
6. Heatmaps.
7. Segmentierung.