Willkommen bei Schema.org
Dies ist das Projekt-Repository von Schema.org. Es enthält alle Schemata, Beispiele und Software, die zur Veröffentlichung von schema.org verwendet werden. Für die Website selbst besuchen Sie bitte stattdessen Schema.org.
Hinweis: Ein Großteil der unterstützenden Software wird aus einem Untermodul importiert: „sdopythonapp“.
Probleme und Vorschläge werden hier von Mitarbeitern rund um das Projekt verwaltet, insbesondere von Teilnehmern der W3C Schema.org Community Group. Wenn Sie an einer Teilnahme interessiert sind, treten Sie bitte der Gruppe im W3C bei, stellen Sie sich vor und suchen oder reichen Sie hier Themen ein, die Ihr Interesse wecken. Wenn Sie neu bei Git und GitHub sind, finden Sie im W3C-Wiki eine nützliche Einführung in GitHub.
Es gibt auch kontinuierliche Integrationstests, um eingehende Pull-Anfragen zu überprüfen.
Ausgabe Nr. 1 in GitHub ist ein Einstiegspunkt für die Release-Planung. Es sollte einen Überblick über die bevorstehenden Arbeiten im Hinblick auf allgemeine Themen, spezifische Probleme und Veröffentlichungsmeilensteine geben. Ausgabe Nr. 1 enthält Links zu Einstiegspunkten pro Veröffentlichung oder navigiert zu den Problemen über ein Label oder einen Meilenstein in GitHub.
Jede Änderung an der Website erfolgt über Diskussionen hier. Wesentliche Änderungen sind in unseren Versionshinweisen festgehalten. Eine Vorschau des Entwurfs der neuen Versionshinweise finden Sie als Teil der Testseite für unsere nächste Version. Etwa jeden Monat veröffentlichen wir nach der abschließenden Prüfung durch die Schema.org-Lenkungsgruppe und die breitere Community eine formelle Veröffentlichung.
Informationen zu CC- und OpenSource-Lizenzen für Dokumente und Software finden Sie in unserem FAQ-Eintrag.
Wir sind immer an praktischen Verbesserungsvorschlägen für schema.org interessiert und unsere Schemasammlung ist seit unserer Einführung im Jahr 2011 schrittweise gewachsen. Wir versuchen, einfachen Korrekturen und Verbesserungen an unseren vorhandenen Schemata, Beispielen und Dokumentationen Vorrang vor dem Hinzufügen neuer Schemata zu geben Vokabular, und wir werden am wahrscheinlichsten neue Schemata hinzufügen, wenn es Hinweise darauf gibt, dass eine (vorzugsweise umfangreiche) verbrauchende Anwendung die Daten nutzen wird. Konsumierende Anwendungen müssen keine Suchmaschinen sein; Softwaretools (z. B. Open Source, mit Markup angereicherte Ansätze für Webanalysen, Browser-Add-ons oder Cloud-Tools) sind allesamt ergiebige Bereiche für die Erkundung und Zusammenarbeit. Wichtig ist, dass von den Datenkonsumenten eine vernünftige Erwartung besteht, dass sie die Änderungen sinnvoll nutzen. Es reicht nicht aus, Ergänzungen damit zu rechtfertigen, dass Suchmaschinen grundsätzlich versuchen, auf Schema.org basierende strukturierte Daten zu verwenden. Kleinere und abwärtskompatible Änderungen lassen sich leichter integrieren.
Hinweis: Schema.org versucht nicht, alle Details des Webinhalts zu erfassen; es ist notwendigerweise eine Vereinfachung einer komplexeren Realität. Das bedeutet, dass es viele Fälle geben wird, in denen das Hinzufügen weiterer Details zu Schema.org möglich erscheint. Um Schema.org jedoch einfach und benutzerfreundlich für Herausgeber und Webmaster zu halten, entscheiden wir uns oft dafür, solche Details nicht hinzuzufügen.
Schema.org verwendet Webstandards wie JSON-LD, Microdata und RDFa, um eine unabhängige Erweiterung zu ermöglichen (siehe beispielsweise das Vokabular von GS1).
Es ist auch höchst unwahrscheinlich, dass wir groß angelegte Neuorganisationen der Terminologie von Schema.org vornehmen, wenn diese ausschließlich durch Erwägungen der Eleganz, der „richtigen Modellierung“, der ontologischen Reinheit oder der konzeptionellen Vereinheitlichung motiviert sind. Obwohl die Projektgründer und das Team mit den Traditionen, die hinter solchen Anliegen stehen, vertraut sind und diese respektieren, haben uns die Größe, der Umfang und die Natur von Schema.org dazu gezwungen, Eleganz und globale Konsistenz gegen eine etwas schäbigere Vorstellung von inkrementeller Entwicklung und eine pragmatische zu tauschen Toleranz gegenüber einem Stil, der in einer formalen Ontologie fehl am Platz wäre. Vorschläge zur Vereinheitlichung, domänenübergreifender, logikbasierter Wissensstrukturen könnten z. B. in der Ontolog-Community besser angenommen werden.
Manchmal führen wir Typen ohne dedizierte Eigenschaftszuordnungen ein, einfach aus Gründen der Benutzerfreundlichkeit des Markups. In einer formalen Ontologie wird dies oft als schlechte Modellierung angesehen. Logisch äquivalente Strukturen können jedoch zu viel mehr Fehlern bei Publishern/Webmastern führen, die mit den zugrunde liegenden formalen Konzepten hinter JSON-LD oder RDF/S nicht vertraut sind.
Schema.org ist kein geschlossenes System und andere Initiativen (z. B. Wikidata oder GS1) haben viele andere Begriffe definiert, die mit denen, die wir auf schema.org definieren, vermischt werden können. Wir bemühen uns auch, unsere Designs an relevanten externen Standards und Initiativen auszurichten, auch wenn dies die globale Eleganz von Schema.org allein betrachtet schmälert. Beispielsweise können wir im bibliografischen oder kulturellen Erbekontext von Initiativen wie MARC, BibFrame und FRBR beeinflusst werden, während wir beim E-Commerce mit Good Relations und GS1 zusammengearbeitet haben. Die nachrichtenbezogenen Begriffe von Schema.org wurden stark durch die Integration des rNews-Designs von IPTC sowie durch die Zusammenarbeit mit Faktenprüfern, dem Trust Project und anderen beeinflusst. Unser TV- und Musikvokabular ist neben der Musikontologie und MusicBrainz stark von der Zusammenarbeit mit der BBC und der European Broadcasting Union beeinflusst. Unsere Schemata spiegeln diese früheren Entwürfe wider. Wir ziehen es vor, auf diese Weise zusammenzuarbeiten, Schema.org schrittweise zu verbessern und daran zu arbeiten, solche Designs zu verfeinern, zu integrieren und zu verschmelzen, anstatt isoliert unser eigenes reines Modell zu erstellen. Dem Ergebnis mangelt es vielleicht an globaler Eleganz, aber es bringt unsere Arbeit in Einklang mit den damit verbundenen weltweiten Bemühungen.
Wir begrüßen immer Themen, die Fragen der Benutzerfreundlichkeit und Lesbarkeit verfolgen, ermutigen aber dazu, sich auf konkrete Situationen zu konzentrieren (z. B. wie man sich wiederholende Ereignisse beschreibt) und nicht auf globale philosophische Anliegen (z. B. ob eine Reservierung oder Aktion „wirklich“ ein Ereignis ist). Wir legen Wert auf lokale Kohärenz (die Möglichkeit, viele alltägliche Situationen sinnvoll zu beschreiben) gegenüber globaler Eleganz (eine globale Theorie, in der alles einen sinnvollen Platz hat). Das bedeutet nicht, dass wir nie Aufräumarbeiten durchführen, aber sie werden gegen andere Überlegungen abgewogen (und werden oft durch diese aufgewogen).
Wenn wir Begriffe hinzufügen, oft im Bereich „Ausstehend“, ermutigen wir dringend zu Feedback, das eine globale Perspektive einnimmt: Wie verhält sich ein neuer Begriff zu anderen, wie könnte er neben bereits bestehenden Mustern verwendet werden usw. Die Änderungen, die wir dabei vornehmen Diese Integrationsphase spiegelt solche Überlegungen wider, wird jedoch in der Regel durch geringfügige Umformulierungen, Beispiele oder Anpassungen der Dokumentation von Typ-/Eigenschaftsverknüpfungen zum Ausdruck gebracht und nicht durch umfassende Umstrukturierungen.
Erfahren Sie mehr über „Wie wir arbeiten“
Für die meisten Mitarbeiter müssen Sie lediglich wissen, wie die Software ausgeführt wird. Das Ziel der Software besteht darin, eine statische Kopie der Schema.org-Site einschließlich potenzieller lokaler Änderungen zu erstellen, um sie zu überprüfen und zum Testen hinter einem einfachen Webserver auf einem lokalen System auszuführen. Auf die gleiche Weise, wie eine Produktionsversion auf einem Cloud-Server bereitgestellt wird, könnte Ihre lokale Version dann mithilfe von gcloud auf einer virtuellen Maschine bereitgestellt werden, um die Zusammenarbeit mit anderen zu ermöglichen.
Vollständige Anweisungen finden Sie in SOFTWARE_README.md, in denen erklärt wird, wie Sie die erste lokale Kopie erstellen, mit der Sie arbeiten können, und sie dann weiterentwickeln, um etwaige Änderungen zu testen. Im Wesentlichen benötigen Sie eine Linux-ähnliche Umgebung (einschließlich Mac), auf der Python Version 3.6 oder höher installiert ist. Anschließend können Sie Test-Builds von schema.org, die auf Ihrem eigenen Computer ausgeführt werden, als http://localhost:8080/ zugänglich machen oder sie zur Zusammenarbeit auf appspot.com veröffentlichen. Einzelheiten zu den relevanten gcloud-Befehlen finden Sie in der Appengine-Dokumentation.
Ausführlichere Informationen zur Software und ihrer Verwendung finden Sie in SOFTWARE_README.md. Siehe auch Hinweise im Wiki: https://github.com/schemaorg/schemaorg/wiki/Contributing
Alle Schemata und Beispiele liegen in Daten-/UTF-8-codierten Dateien vor.
Die Hauptschemadatei ist data/schema.ttl (utf-8).
Bei der Entwicklung von Schemata kann die Verwendung von data/sdo-somethinghere-schema.ttl hilfreich sein.
Das Format basiert auf W3C RDFS im RDF/Turtle-Format.
Die Beispiele werden in data/examples.txt (utf-8) und anderen .txt-Dateien gespeichert.
Wie bei Schemata wird auch data/examples.txt gelesen. Es kann sinnvoll sein, mit separaten Dateien zu entwickeln.
Wenn das Vokabular endgültig in das Hauptrepository integriert ist, werden die Schemadaten in schema.org zusammengeführt. Allerdings bleiben Beispiele in separaten Dateien, da dies mit der Dateivergleichsmaschinerie von Git besser funktioniert.
Die data/releases/-Hierarchie ist für Release-Snapshots reserviert (siehe https://schema.org/version/).
Die ext//-Hierarchie ist für Erweiterungen reserviert (siehe https://schema.org/docs/extension.html).
Wir verwenden Github-Branches nicht mehr für laufende Arbeiten. Der Haupt-/Zweigzweig ist unser neuester Kandidat. Es kann nicht garantiert werden, dass es sich in einem konzeptionell konsistenten Zustand befindet, es sollte sich jedoch stabilisieren, bevor ein Release Candidate zur Überprüfung in Umlauf gebracht wird.
Diese Dokumentation betrifft die Software-Codebasis und nicht schema.org selbst. Beachten Sie jedoch, dass Beschriftungen, Kommentare und Dokumentation (im Code und in den Schemata) US-Englisch verwenden sollten, wenn eine Auswahl zwischen englischen Varianten erforderlich ist. Bitte streben Sie nach Möglichkeit internationales Englisch an.
Siehe auch: https://twitter.com/schemaorg_dev
Beispiel:
`
Apache-2.0-Lizenz
Inhaltsverzeichnis
Darknet Object Detection Framework und YOLO
Papiere
Allgemeine Informationen
Darknet-Version
Vortrainierte MSCOCO-Gewichte
Gebäude
Google Colab
Linux CMake-Methode
Windows CMake-Methode
Nutzung von Darknet
CLI
Ausbildung
Andere Tools und Links
Roadmap
Kurzfristige Ziele
Mittelfristige Ziele
Langfristige Ziele
Darknet Object Detection Framework und YOLO
Darknet- und Hank.ai-Logos
Darknet ist ein Open-Source-Framework für neuronale Netzwerke, das in C, C++ und CUDA geschrieben ist.
YOLO (You Only Look Once) ist ein hochmodernes Echtzeit-Objekterkennungssystem, das im Darknet-Framework läuft.
Lesen Sie, wie Hank.ai der Darknet/YOLO-Community hilft
Ankündigung von Darknet V3 „Jazz“
Siehe die Darknet/YOLO-Website
Bitte lesen Sie die Darknet/YOLO-FAQ durch
Treten Sie dem Darknet/YOLO-Discord-Server bei
Papiere
Papier YOLOv7
Papierskaliert-YOLOv4
Papier YOlov4
Papier YOlov3
Allgemeine Informationen
Das Darknet/YOLO-Framework ist weiterhin schneller und genauer als andere Frameworks und Versionen von YOLO.
Dieses Framework ist sowohl völlig kostenlos als auch Open Source. Sie können Darknet/YOLO in bestehende Projekte und Produkte – auch kommerzielle – integrieren, ohne eine Lizenz oder eine Gebühr zu zahlen.
Darknet V3 („Jazz“), das im Oktober 2024 veröffentlicht wurde, kann die LEGO-Datensatzvideos bei Verwendung einer NVIDIA RTX 3090-GPU präzise mit bis zu 1000 FPS ausführen, was bedeutet, dass jedes Videobild von Darknet/YOLO in 1 Millisekunde gelesen, in der Größe geändert und verarbeitet wird weniger.
Bitte treten Sie dem Darknet/YOLO Discord-Server bei, wenn Sie Hilfe benötigen oder über Darknet/YOLO diskutieren möchten: https://discord.gg/zSq8rtW
Die CPU-Version von Darknet/YOLO kann auf einfachen Geräten wie Raspberry Pi, Cloud- und Colab-Servern, Desktops, Laptops und High-End-Trainingsgeräten ausgeführt werden. Die GPU-Version von Darknet/YOLO erfordert eine CUDA-fähige GPU von NVIDIA.
Darknet/YOLO funktioniert bekanntermaßen unter Linux, Windows und Mac. Siehe die Bauanleitung unten.
Darknet-Version
Das ursprüngliche Darknet-Tool, das 2013–2017 von Joseph Redmon geschrieben wurde, hatte keine Versionsnummer. Wir betrachten diese Version als 0.x.
Auch das nächste beliebte Darknet-Repo, das zwischen 2017 und 2021 von Alexey Bochkovskiy gepflegt wurde, hatte keine Versionsnummer. Wir betrachten diese Version als 1.x.
Das von Hank.ai gesponserte und ab 2023 von Stéphane Charette gepflegte Darknet-Repo war das erste mit einem Versionsbefehl. Von 2023 bis Ende 2024 gab es Version 2.x „OAK“ zurück.
Das Ziel bestand darin, so wenig wie möglich von der vorhandenen Funktionalität zu beeinträchtigen und sich gleichzeitig mit der Codebasis vertraut zu machen.
Wir haben die Build-Schritte neu geschrieben, sodass wir eine einheitliche Möglichkeit haben, mit CMake sowohl unter Windows als auch unter Linux zu erstellen.
Konvertierte die Codebasis, um den C++-Compiler zu verwenden.
Verbessertes chart.png während des Trainings.
Fehlerbehebungen und leistungsbezogene Optimierungen, hauptsächlich im Zusammenhang mit der Verkürzung der Zeit, die zum Trainieren eines Netzwerks benötigt wird.
Der letzte Zweig dieser Codebasis ist Version 2.1 im v2-Zweig.
Die nächste Entwicklungsphase begann Mitte 2024 und wurde im Oktober 2024 veröffentlicht. Der Versionsbefehl gibt nun 3.x „JAZZ“ zurück.
Sie können jederzeit den vorherigen v2-Zweig auschecken, wenn Sie einen dieser Befehle ausführen müssen. Lassen Sie es uns wissen, damit wir prüfen können, ob fehlende Befehle wieder hinzugefügt werden können.
Viele alte und nicht gepflegte Befehle wurden entfernt.
Viele Leistungsoptimierungen, sowohl beim Training als auch bei der Inferenz.
Die Legacy-C-API wurde geändert; Anwendungen, die die ursprüngliche Darknet-API verwenden, benötigen geringfügige Änderungen: https://darknetcv.ai/api/api.html
Neue Darknet V3 C- und C++-API: https://darknetcv.ai/api/api.html
Neue Apps und Beispielcode in src-examples: https://darknetcv.ai/api/files.html
Vortrainierte MSCOCO-Gewichte
Mehrere beliebte Versionen von YOLO wurden zur Vereinfachung auf dem MSCOCO-Datensatz vorab trainiert. Dieser Datensatz verfügt über 80 Klassen, die in der Textdatei cfg/coco.names eingesehen werden können.
Es stehen mehrere andere einfachere Datensätze und vorab trainierte Gewichte zum Testen von Darknet/YOLO zur Verfügung, beispielsweise LEGO Gears und Rolodex. Weitere Informationen finden Sie in den Darknet/YOLO-FAQ.
Die vorab trainierten MSCOCO-Gewichte können von verschiedenen Orten heruntergeladen werden und stehen auch in diesem Repo zum Download bereit:
YOlov2, November 2016
YOLOv2-tiny
YOLOv2-voll
YOlov3, Mai 2018
YOLOv3-tiny
YOLOv3-voll
YOlov4, Mai 2020
YOLOv4-tiny
YOLOv4-voll
YOLOv7, August 2022
YOLOv7-tiny
YOLOv7-voll
Die vortrainierten MSCOCO-Gewichte werden nur zu Demozwecken bereitgestellt. Die entsprechenden .cfg- und .names-Dateien für MSCOCO befinden sich im cfg-Verzeichnis. Beispielbefehle:
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1. avi
Beachten Sie, dass von den Menschen erwartet wird, dass sie ihre eigenen Netzwerke trainieren. MSCOCO wird normalerweise verwendet, um zu bestätigen, dass alles ordnungsgemäß funktioniert.
Gebäude
Die verschiedenen in der Vergangenheit (vor 2023) verfügbaren Build-Methoden wurden zu einer einzigen einheitlichen Lösung zusammengeführt. Darknet erfordert C++17 oder neuer, OpenCV und verwendet CMake, um die notwendigen Projektdateien zu generieren.
Sie müssen weder C++ beherrschen, um Darknet/YOLO zu erstellen, zu installieren noch auszuführen, noch müssen Sie Mechaniker sein, um ein Auto zu fahren.
Google Colab
Linux
Windows
Seien Sie vorsichtig, wenn Sie alten Tutorials mit komplizierteren Build-Schritten folgen oder Build-Schritte erstellen, die nicht mit dem Inhalt dieser Readme-Datei übereinstimmen. Die unten beschriebenen neuen Bauschritte begannen im August 2023.
Softwareentwicklern wird empfohlen, https://darknetcv.ai/ zu besuchen, um Informationen über die Interna des Darknet/YOLO-Objekterkennungs-Frameworks zu erhalten.
Google Colab
Die Google Colab-Anweisungen sind dieselben wie die Linux-Anweisungen. Es sind mehrere Jupyter-Notebooks verfügbar, die zeigen, wie bestimmte Aufgaben ausgeführt werden, beispielsweise das Training eines neuen Netzwerks.
Sehen Sie sich die Notizbücher im Unterverzeichnis colab an und/oder befolgen Sie die folgenden Linux-Anweisungen.
Linux CMake-Methode
Darknet-Build-Tutorial für Linux
Optional: Wenn Sie über eine moderne NVIDIA-GPU verfügen, können Sie an dieser Stelle entweder CUDA oder CUDA+cuDNN installieren. Falls installiert, nutzt Darknet Ihre GPU, um die Bild- (und Video-)Verarbeitung zu beschleunigen.
Sie müssen die Datei CMakeCache.txt aus Ihrem Darknet-Build-Verzeichnis löschen, um CMake zu zwingen, alle erforderlichen Dateien erneut zu finden.
Denken Sie daran, Darknet neu aufzubauen.
Darknet kann ohne ausgeführt werden, aber wenn Sie ein benutzerdefiniertes Netzwerk trainieren möchten, ist entweder CUDA oder CUDA+cuDNN erforderlich.
Besuchen Sie https://developer.nvidia.com/cuda-downloads, um CUDA herunterzuladen und zu installieren.
Besuchen Sie https://developer.nvidia.com/rdp/cudnn-download oder https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview zum Herunterladen und cuDNN installieren.
Stellen Sie nach der Installation von CUDA sicher, dass Sie nvcc und nvidia-smi ausführen können. Möglicherweise müssen Sie Ihre PATH-Variable ändern.
Wenn Sie CUDA oder CUDA+cuDNN zu einem späteren Zeitpunkt installieren oder auf eine neuere Version der NVIDIA-Software aktualisieren:
Diese Anweisungen gehen von einem System aus, auf dem Ubuntu 22.04 läuft (aber erfordern es nicht!). Passen Sie es bei Bedarf an, wenn Sie eine andere Distribution verwenden.
sudo apt-get install build-essential git libopencv-dev cmake mkdir ~/srccd ~/src git clone https://github.com/hank-ai/darknetcd darknet mkdir buildcd build cmake -DCMAKEBUILDTYPE=Release .. make -j4 Paket sudo dpkg -i darknet-VERSION.deb
Wenn Sie eine ältere Version von CMake verwenden, müssen Sie CMake aktualisieren, bevor Sie den oben genannten cmake-Befehl ausführen können. Das Upgrade von CMake unter Ubuntu kann mit den folgenden Befehlen durchgeführt werden:
sudo apt-get purge cmake sudo snap install cmake --classic
Wenn Sie Bash als Befehls-Shell verwenden, sollten Sie Ihre Shell an dieser Stelle neu starten. Wenn Sie Fisch verwenden, sollte dieser sofort den neuen Weg einschlagen.
Fortgeschrittene Benutzer:
Wenn Sie eine RPM-Installationsdatei anstelle einer DEB-Datei erstellen möchten, sehen Sie sich die entsprechenden Zeilen in CM_package.cmake an. Bevor Sie make -j4 package ausführen, müssen Sie diese beiden Zeilen bearbeiten:
SET (CPACKGENERATOR „DEB“)# SET (CPACKGENERATOR „RPM“)
Für Distributionen wie Centos und OpenSUSE müssen Sie diese beiden Zeilen in CM_package.cmake wie folgt ändern:
SET (CPACKGENERATOR „DEB“)SET (CPACKGENERATOR „RPM“)
Um das Installationspaket nach Abschluss der Erstellung zu installieren, verwenden Sie den für Ihre Distribution üblichen Paketmanager. Beispielsweise auf Debian-basierten Systemen wie Ubuntu:
sudo dpkg -i darknet-2.0.1-Linux.deb
Durch die Installation des .deb-Pakets werden die folgenden Dateien kopiert:
/usr/bin/darknet ist die übliche ausführbare Darknet-Datei. Führen Sie die Darknet-Version über die CLI aus, um zu bestätigen, dass sie korrekt installiert ist.
/usr/include/darknet.h ist die Darknet-API für C-, C++- und Python-Entwickler.
/usr/include/darknet_version.h enthält Versionsinformationen für Entwickler.
/usr/lib/libdarknet.so ist die Bibliothek zum Verlinken für C-, C++- und Python-Entwickler.
/opt/darknet/cfg/... ist der Ort, an dem alle .cfg-Vorlagen gespeichert sind.
Sie sind jetzt fertig! Darknet wurde in /usr/bin/ erstellt und installiert. Führen Sie dies zum Testen aus: Darknet-Version.
Wenn Sie /usr/bin/darknet nicht haben, bedeutet das, dass Sie es nicht installiert, sondern nur erstellt haben! Stellen Sie sicher, dass Sie die .deb- oder .rpm-Datei wie oben beschrieben installieren.
Windows CMake-Methode
Diese Anleitung setzt eine brandneue Installation von Windows 11 22H2 voraus.
Öffnen Sie ein normales cmd.exe-Eingabeaufforderungsfenster und führen Sie die folgenden Befehle aus:
Winget-Installation Git.Git Winget-Installation Kitware.CMake Winget-Installation nsis.nsis Winget-Installation Microsoft.VisualStudio.2022.Community
An dieser Stelle müssen wir die Visual Studio-Installation ändern, um Unterstützung für C++-Anwendungen einzuschließen:
Klicken Sie auf das „Windows-Start“-Menü und führen Sie „Visual Studio Installer“ aus.
Klicken Sie auf Ändern
Wählen Sie Desktop-Entwicklung mit C++
Klicken Sie unten rechts auf „Ändern“ und dann auf „Ja“. Sobald alles heruntergeladen und installiert ist, klicken Sie erneut auf das „Windows-Start“-Menü und wählen Sie „Entwickler-Eingabeaufforderung für VS 2022“. Verwenden Sie für diese Schritte nicht PowerShell, Sie werden ausgeführt in Probleme!
Fortgeschrittene Benutzer:
Anstatt die Entwickler-Eingabeaufforderung auszuführen, können Sie eine normale Eingabeaufforderung oder eine SSH-Verbindung zum Gerät verwenden und „ProgrammeMicrosoft Visual Studio2022CommunityCommon7ToolsVsDevCmd.bat“ manuell ausführen.
Sobald Sie die Developer-Eingabeaufforderung wie oben beschrieben ausgeführt haben (nicht PowerShell!), führen Sie die folgenden Befehle aus, um Microsoft VCPKG zu installieren, das dann zum Erstellen von OpenCV verwendet wird:
cd c:mkdir c:srccd c:src git clone https://github.com/microsoft/vcpkgcd vcpkg bootstrap-vcpkg.bat .vcpkg.exe integrieren install .vcpkg.exe integrieren powershell.vcpkg.exe installieren opencv[contrib, dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
Seien Sie bei diesem letzten Schritt geduldig, da die Ausführung lange dauern kann. Es müssen viele Dinge heruntergeladen und erstellt werden.
Fortgeschrittene Benutzer:
Beachten Sie, dass Sie beim Erstellen von OpenCV möglicherweise viele weitere optionale Module hinzufügen möchten. Führen Sie „.vcpkg.exe search opencv“ aus, um die vollständige Liste anzuzeigen.
Optional: Wenn Sie über eine moderne NVIDIA-GPU verfügen, können Sie an dieser Stelle entweder CUDA oder CUDA+cuDNN installieren. Falls installiert, nutzt Darknet Ihre GPU, um die Bild- (und Video-)Verarbeitung zu beschleunigen.
Sie müssen die Datei CMakeCache.txt aus Ihrem Darknet-Build-Verzeichnis löschen, um CMake zu zwingen, alle erforderlichen Dateien erneut zu finden.
Denken Sie daran, Darknet neu aufzubauen.
Darknet kann ohne ausgeführt werden, aber wenn Sie ein benutzerdefiniertes Netzwerk trainieren möchten, ist entweder CUDA oder CUDA+cuDNN erforderlich.
Besuchen Sie https://developer.nvidia.com/cuda-downloads, um CUDA herunterzuladen und zu installieren.
Besuchen Sie https://developer.nvidia.com/rdp/cudnn-download oder https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows, um cuDNN herunterzuladen und zu installieren.
Stellen Sie nach der Installation von CUDA sicher, dass Sie nvcc.exe und nvidia-smi.exe ausführen können. Möglicherweise müssen Sie Ihre PATH-Variable ändern.
Sobald Sie cuDNN heruntergeladen haben, entpacken Sie die Verzeichnisse bin, include und lib und kopieren Sie sie nach C:/Programme/NVIDIA GPU Computing Toolkit/CUDA/[Version]/. Möglicherweise müssen Sie einige Dateien überschreiben.
Wenn Sie CUDA oder CUDA+cuDNN zu einem späteren Zeitpunkt installieren oder auf eine neuere Version der NVIDIA-Software aktualisieren:
CUDA muss nach Visual Studio installiert werden. Wenn Sie Visual Studio aktualisieren, denken Sie daran, CUDA neu zu installieren.
Nachdem alle vorherigen Schritte erfolgreich abgeschlossen wurden, müssen Sie Darknet klonen und erstellen. Während dieses Schritts müssen wir CMake auch mitteilen, wo sich vcpkg befindet, damit es OpenCV und andere Abhängigkeiten finden kann:
cd c:src git clone https://github.com/hank-ai/darknet.gitcd darknetmkdir buildcd build cmake -DCMAKEBUILDTYPE=Release -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake .. msbuild. exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
Wenn Sie eine Fehlermeldung über fehlende CUDA- oder cuDNN-DLLs wie cublas64_12.dll erhalten, kopieren Sie die CUDA-DLL-Dateien manuell in dasselbe Ausgabeverzeichnis wie Darknet.exe. Zum Beispiel:
kopieren Sie „C:ProgrammeNVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll“ src-cliRelease
(Das ist ein Beispiel! Überprüfen Sie, welche Version Sie verwenden, und führen Sie den Befehl aus, der für das, was Sie installiert haben, geeignet ist.)
Nachdem die Dateien kopiert wurden, führen Sie den letzten msbuild.exe-Befehl erneut aus, um das NSIS-Installationspaket zu generieren:
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
Fortgeschrittene Benutzer:
Beachten Sie, dass die Ausgabe des Befehls cmake eine normale Visual Studio-Lösungsdatei, Darknet.sln, ist. Wenn Sie ein Softwareentwickler sind, der regelmäßig die Visual Studio-GUI anstelle von msbuild.exe zum Erstellen von Projekten verwendet, können Sie die Befehlszeile ignorieren und das Darknet-Projekt in Visual Studio laden.
Sie sollten jetzt diese Datei haben, die Sie ausführen können: C:srcDarknetbuildsrc-cliReleasedarknet.exe. Führen Sie dies zum Testen aus: C:srcDarknetbuildsrc-cliReleasedarknet.exe-Version.
Um Darknet, die Bibliotheken, die Include-Dateien und die erforderlichen DLLs korrekt zu installieren, führen Sie den NSIS-Installationsassistenten aus, der im letzten Schritt erstellt wurde. Sehen Sie sich die Datei darknet-VERSION.exe im Build-Verzeichnis an. Zum Beispiel:
darknet-2.0.31-win64.exe
Die Installation des NSIS-Installationspakets führt zu Folgendem:
Erstellen Sie ein Verzeichnis mit dem Namen Darknet, z. B. C:ProgrammeDarknet.
Installieren Sie die CLI-Anwendung, darknet.exe und andere Beispiel-Apps.
Installieren Sie die erforderlichen DLL-Dateien von Drittanbietern, beispielsweise die von OpenCV.
Installieren Sie die erforderlichen Darknet-Dateien .dll, .lib und .h, um Darknet.dll aus einer anderen Anwendung zu verwenden.
Installieren Sie die .cfg-Vorlagendateien.
Sie sind jetzt fertig! Sobald der Installationsassistent abgeschlossen ist, ist Darknet in C:ProgrammeDarknet installiert. Führen Sie dies zum Testen aus: C:ProgrammeDarknetbindarknet.exe-Version.
Wenn Sie C:/Program Files/darknet/bin/darknet.exe nicht haben, bedeutet das, dass Sie es nicht installiert, sondern nur erstellt haben! Stellen Sie sicher, dass Sie im vorherigen Schritt alle Bereiche des NSIS-Installationsassistenten durchgehen.
Nutzung von Darknet
CLI
Im Folgenden finden Sie nicht die vollständige Liste aller von Darknet unterstützten Befehle.
Beachten Sie neben der Darknet-CLI auch die DarkHelp-Projekt-CLI, die eine alternative CLI zu Darknet/YOLO bietet. Die DarkHelp-CLI verfügt außerdem über mehrere erweiterte Funktionen, die im Darknet nicht direkt verfügbar sind. Sie können sowohl die Darknet-CLI als auch die DarkHelp-CLI zusammen verwenden, sie schließen sich nicht gegenseitig aus.
Für die meisten der unten gezeigten Befehle benötigen Sie die .weights-Datei mit den entsprechenden .names- und .cfg-Dateien. Sie können entweder Ihr eigenes Netzwerk trainieren (sehr empfehlenswert!) oder ein neuronales Netzwerk herunterladen, das bereits jemand trainiert und kostenlos im Internet zur Verfügung gestellt hat. Beispiele für vorab trainierte Datensätze sind:
LEGO Gears (Objekte in einem Bild finden)
Rolodex (Text in einem Bild finden)
MSCOCO (Standardobjekterkennung der 80er-Klasse)
Zu den auszuführenden Befehlen gehören:
Listen Sie einige mögliche Befehle und Optionen auf, die ausgeführt werden können:
Darknet-Hilfe
Überprüfen Sie die Version:
Darknet-Version
Mithilfe eines Bildes vorhersagen:
V2: Darknet-Detektortest car.data car.cfg car_best.weights image1.jpg
V3: darknet02displayannotatedimages cars.cfg image1.jpg
DarkHelp: DarkHelp Cars.cfg Cars.cfg Cars_Best.weights Bild1.jpg
Ausgabekoordinaten:
V2: Darknet-Detektortest Animals.data Animals.cfg Animalsbest.weights -extoutput Dog.jpg
V3: Darknet01inference_images Tiere Hund.jpg
DarkHelp: DarkHelp --json Animals.cfg Animals.names Animals_best.weights Hund.jpg
Arbeiten mit Videos:
V2: Darknet-Detektor-Demo Animals.data Animals.cfg Animalsbest.weights -extoutput test.mp4
V3: darknet03display_videos Animals.cfg test.mp4
DarkHelp: DarkHelp Animals.cfg Animals.Names Animals_Best.Weights Test.mp4
Lesen von einer Webcam:
V2: Darknet-Detektor-Demo Animals.data Animals.cfg Animals_best.weights -c 0
V3: darknet08display_webcam Tiere
Ergebnisse in einem Video speichern:
V2: Darknet-Detektor-Demo Animals.data Animals.cfg Animalsbest.weights test.mp4 -outfilename res.avi
V3: Darknet05processvideosmultithreaded Animals.cfg Animals.Names Animals_Best.Weights Test.mp4
DarkHelp: DarkHelp Animals.cfg Animals.Names Animals_Best.Weights Test.mp4
JSON:
V2: Darknet-Detektor-Demo Animals.data Animals.cfg Animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson Animals image1.jpg
DarkHelp: DarkHelp --json Animals.names Animals.cfg Animals_best.weights image1.jpg
Läuft auf einer bestimmten GPU:
V2: Darknet-Detektor-Demo Animals.data Animals.cfg Animals_best.weights -i 1 test.mp4
So überprüfen Sie die Genauigkeit des neuronalen Netzwerks:
Darknet-Detektorkarte Driving.data Driving.cfg Driving_Best.weights ... Id Name AvgPrecision TP FN FP TN Accuracy ErrorRate Precision Recall Specificity FalsePosRate -- ---- ------------ ---- -- ------ ------ ------ -------- --------- --------- ---- -- ----------- ------------ 0 Fahrzeug 91,2495 32648 3903 5826 65129 0,9095 0,0905 0,8486 0,8932 0,9179 0,0821 1 Motorrad 80,4499 2936 513 569. 5 393 0,8850 0,1150 0,8377 0,8513 0,9046 0.0954 2 bicycle 89.0912 570 124 104 3548 0.9475 0.0525 0.8457 0.8213 0.9715 0.0285 3 person 76.7937 7072 1727 2574 27523 0.8894 0.1106 0.7332 0.8037 0.9145 0.0855 4 many vehicles 64.3089 1068 509 733 11288 0.9087 0.0913 0.5930 0.6772 0.9390 0.0610 5 green light 86.8118 1969 239 510 4116 0.8904 0,1096 0,7943 0,8918 0,8898 0,1102 6 gelbes Licht 82,0390 126 38 30 1239 0,9525 0,0475 0,8077 0,7683 0,9764 0,0236 7 rotes Licht 94,1033 3449. 217 451 4643 0,9237 0,0763 0,8844 0,9408 0,9115 0,0885
So überprüfen Sie die Genauigkeit mAP@IoU=75:
Darknet-Detektorkarte Animals.data Animals.cfg Animalsbest.weights -iouthresh 0,75
Die Neuberechnung der Anker erfolgt am besten in DarkMark, da es 100 Mal hintereinander ausgeführt wird und aus allen berechneten Ankern die besten auswählt. Wenn Sie jedoch die alte Version im Darknet ausführen möchten:
Darknet-Detektor calcanchors Animals.data -numof_clusters 6 -width 320 -height 256
Trainieren Sie ein neues Netzwerk:
Darknet Detector -map -dont_show train Animals.data Animals.cfg (siehe auch den Trainingsabschnitt unten)
Ausbildung
Schnelle Links zu relevanten Abschnitten der Darknet/YOLO-FAQ:
Wie soll ich meine Dateien und Verzeichnisse einrichten?
Welche Konfigurationsdatei soll ich verwenden?
Welchen Befehl sollte ich beim Training meines eigenen Netzwerks verwenden?
Der einfachste Weg zum Kommentieren und Trainieren ist die Verwendung von DarkMark zum Erstellen aller erforderlichen Darknet-Dateien. Dies ist definitiv die empfohlene Methode, ein neues neuronales Netzwerk zu trainieren.
Wenn Sie die verschiedenen Dateien lieber manuell einrichten möchten, um ein benutzerdefiniertes Netzwerk zu trainieren:
Erstellen Sie einen neuen Ordner, in dem die Dateien gespeichert werden. In diesem Beispiel wird ein neuronales Netzwerk zur Erkennung von Tieren erstellt, daher wird das folgende Verzeichnis erstellt: ~/nn/animals/.
Kopieren Sie eine der Darknet-Konfigurationsdateien, die Sie als Vorlage verwenden möchten. Siehe beispielsweise cfg/yolov4-tiny.cfg. Platzieren Sie dies in dem von Ihnen erstellten Ordner. Für dieses Beispiel haben wir jetzt ~/nn/animals/animals.cfg.
Erstellen Sie eine Textdatei „animals.names“ in demselben Ordner, in dem Sie die Konfigurationsdatei abgelegt haben. Für dieses Beispiel haben wir jetzt ~/nn/animals/animals.names.
Bearbeiten Sie die Datei Animals.names mit Ihrem Texteditor. Listen Sie die Klassen auf, die Sie verwenden möchten. Sie benötigen genau 1 Eintrag pro Zeile, ohne Leerzeilen und ohne Kommentare. In diesem Beispiel enthält die .names-Datei genau 4 Zeilen:
Hund Katze Vogel Pferd
Erstellen Sie im selben Ordner eine Animals.data-Textdatei. In diesem Beispiel enthält die .data-Datei Folgendes:
Klassen = 4 Zug = /home/Benutzername/nn/animals/animalstrain.txt gültig = /home/Benutzername/nn/animals/animalsvalid.txt Namen = /home/Benutzername/nn/animals/animals.names Sicherung = /home/ Benutzername/nn/Tiere
Erstellen Sie einen Ordner, in dem Sie Ihre Bilder und Anmerkungen speichern. Dies könnte beispielsweise ~/nn/animals/dataset sein. Für jedes Bild ist eine entsprechende TXT-Datei erforderlich, die die Anmerkungen für dieses Bild beschreibt. Das Format der TXT-Anmerkungsdateien ist sehr spezifisch. Sie können diese Dateien nicht manuell erstellen, da jede Anmerkung die genauen Koordinaten für die Anmerkung enthalten muss. Sehen Sie sich DarkMark oder eine andere ähnliche Software an, um Ihre Bilder mit Anmerkungen zu versehen. Das YOLO-Annotationsformat wird in den Darknet/YOLO-FAQ beschrieben.
Erstellen Sie die Textdateien „train“ und „valid“, die in der .data-Datei benannt sind. Diese beiden Textdateien müssen alle Bilder einzeln auflisten, die Darknet zum Training und zur Validierung bei der Berechnung des mAP% verwenden muss. Genau ein Bild pro Zeile. Der Pfad und die Dateinamen können relativ oder absolut sein.
Ändern Sie Ihre .cfg-Datei mit einem Texteditor.
Stellen Sie sicher, dass Batch=64 ist.
Beachten Sie die Unterteilungen. Abhängig von den Netzwerkabmessungen und der auf Ihrer GPU verfügbaren Speichermenge müssen Sie möglicherweise die Unterteilungen erhöhen. Der beste Wert ist 1, also beginnen Sie damit. Sehen Sie sich die Darknet/YOLO-FAQ an, wenn 1 für Sie nicht funktioniert.
Beachten Sie maxbatches=.... Ein guter Wert für den Anfang ist 2000 x die Anzahl der Klassen. In diesem Beispiel haben wir 4 Tiere, also 4 * 2000 = 8000. Das heißt, wir verwenden maxbatches=8000.
Beachten Sie „steps=...“. Dies sollte auf 80 % und 90 % der maximalen Batches eingestellt werden. Für dieses Beispiel würden wir „steps=6400,7200“ verwenden, da „maxbatches“ auf 8000 festgelegt war.
Beachten Sie width=... und height=.... Dies sind die Netzwerkabmessungen. Die Darknet/YOLO-FAQ erklärt, wie man die beste Größe berechnet.
Suchen Sie nach allen Instanzen der Zeile „classes=...“ und ändern Sie sie mit der Anzahl der Klassen in Ihrer .names-Datei. Für dieses Beispiel würden wir „classes=4“ verwenden.
Suchen Sie nach allen Instanzen der Zeile filter=... im Abschnitt [convolutional] vor jedem Abschnitt [yolo]. Der zu verwendende Wert ist (Anzahl der Klassen + 5) 3. Das bedeutet für dieses Beispiel (4 + 5) 3 = 27. Wir würden also filter=27 in den entsprechenden Zeilen verwenden.
Beginnen Sie mit dem Training! Führen Sie die folgenden Befehle aus:
cd ~/nn/animals/ Darknet Detector -map -dont_show train Animals.data Animals.cfg
Sei geduldig. Die besten Gewichte werden als Animals_best.weights gespeichert. Und der Fortschritt des Trainings kann durch Betrachten des beobachtet werden