UniGetUI (旧 WingetUI)
ダウンコードのエディターでは、Windows 10 および 11 ユーザー向けに作成された直感的な GUI インターフェイスである UniGetUI を紹介します。これは、WinGet、Scoop、Chocolatey、Pip、Npm、.NET Tool、PowerShell Gallery などの一般的な CLI パッケージ マネージャーの使用を簡素化するように設計されています。 。
UniGetUI 関数
UniGetUI を使用すると、サポートされているすべてのパッケージ マネージャーなどで公開されているソフトウェアを簡単にダウンロード、インストール、更新、アンインストールできます。
UniGetUI でサポートされるパッケージ マネージャー
詳細については、「サポートされているパッケージ マネージャーの表」を確認してください。
免責事項
UniGetUI プロジェクトは、サポートされているパッケージ マネージャーとは一切関係がなく、完全に非公式です。 UniGetUI の開発者である Downcodes は、ダウンロードされたソフトウェアに対して責任を負わないことに注意してください。注意して使用してください。
知らせ
UniGetUI の公式 Web サイトは https://www.marticliment.com/unigetui/ です。それ以外の Web サイトは、何を言おうと非公式とみなされるべきです。特に、wingetui.com は UniGetUI (旧 WingetUI) の公式 Web サイトではありません。
開発者をサポートする
UniGetUI の継続的な開発には皆様のサポートが不可欠であり、Downcodes の編集者は深く感謝しています。ありがとう!
目次
1. インストール
UniGetUI をインストールするには複数の方法があります。お好みのインストール方法を選択してください。
※Microsoft Storeのインストール(推奨)
ここをクリックして UniGetUI インストーラーをダウンロードします。
※Winget経由でインストール
「バッシュ」
winget install --exact --id MartiCliment.UniGetUI --source winget
`
* Scoop 経由でインストール
注: 現在、UniGetUI の Scoop パッケージに問題があります。まだ Scoop 経由で UniGetUI をインストールしないでください。
「バッシュ」
# rem 現在の UniGetUI scoop パッケージは壊れています。当面は scoop 経由で UniGetUI をインストールしないでください。
# レムスクープバケット追加エクストラ
# rem scoop インストール extras/wingetui
`
* Chocolatey経由でインストール
「バッシュ」
チョコインストール wingetui
`
2.UniGetUIを更新する
UniGetUI には自動更新機能が組み込まれています。ただし、UniGetUI の他のパッケージと同じように更新することもできます (UniGetUI は Winget および Scoop を通じて利用できるため)。
3. 機能
* サポートされているパッケージマネージャー
注: すべてのパッケージ マネージャーは、基本的なインストール、更新、およびアンインストールのプロセスに加えて、更新の確認、新しいパッケージの検索、パッケージからの詳細の取得をサポートしています。
| パッケージマネージャーのサポート |
|---|---|---|
| ウィンゲット |
| スクープ |
| チョコレート
| ピップ |
✅ |
| .NET ツール |
| パワーシェルギャラリー ✅ |
例証します:
1. 一部のパッケージはカスタムの場所またはスコープへのインストールをサポートしていないため、この設定は無視されます。
2. パッケージ マネージャーはプレリリース バージョンをサポートしていない場合がありますが、一部のパッケージはコピーされる可能性があり、コピーの 1 つはそのベータ バージョンです。
3. 一部のインストーラーには GUI がなく、対話型フラグが無視されます。
* UniGetUI を他の言語に翻訳する
UniGetUI を他の言語に翻訳したり、古い翻訳を更新したりするには、詳細については UniGetUI Wiki を参照してください。
* 現在サポートされている言語
*更新: 2024 年 10 月 29 日火曜日 00:13:19
4. 貢献
UniGetUI は、私たちの親愛なる貢献者の助けなしでは不可能です。タイプミスを修正した人からコードの半分を改善した人まで、UniGetUI は彼らの貢献なしでは成り立ちません。
寄稿者:
*…
5. スクリーンショット
*…
6. よくある質問
* 特定の Winget パッケージをインストールまたはアップグレードできません。私は何をしますか?
これは、UniGetUI ではなく Winget の問題である可能性があります。コマンド winget upgrade または winget install (必要に応じて、例: winget upgrade --id Microsoft.PowerToys) を使用して、PowerShell またはコマンド プロンプトでパッケージがインストール/アップグレードできるかどうかを確認してください。これがうまくいかない場合は、Winget プロジェクト ページで助けを求めることを検討してください。
* パッケージ名は省略記号で切り詰められています - 完全な名前/ID を表示するにはどうすればよいですか?
これは Winget の既知の制限です。詳細については、この問題を参照してください:microsoft/winget-cli#2603。
* 私のウイルス対策ソフトウェアでは、UniGetUI はウイルスだと言われています。 /ブラウザが UniGetUI のダウンロードをブロックしています!
アプリケーション (つまり、実行可能ファイル) が、たとえ UniGetUI などの悪意のあるコードが含まれていないとしても、ブロックされたりウイルスとして検出されたりする一般的な理由は、それらを使用する人が比較的少ないためです。それに加えて、最近リリースされたものをダウンロードしている可能性が高く、多くの場合、未知のアプリをブロックすることが本物のマルウェアに対する良い予防策となります。 UniGetUI はオープンソースで安全に使用できるため、ウイルス対策ソフトウェア/ブラウザの設定でアプリケーションをホワイトリストに登録してください。
* Winget/Scoop バッグは安全ですか?
UniGetUI、Microsoft、および Scoop は、ダウンロード可能なパッケージについては責任を負いません。これらのパッケージはサードパーティによって提供され、理論的には壊れている可能性があります。 Microsoft は、マルウェアがダウンロードされるリスクを軽減するために、Winget で利用可能なソフトウェアにいくつかのチェックを実装しました。それでも、信頼できる発行元からのみソフトウェアをダウンロードすることをお勧めします。詳細については wiki をチェックしてください!
7. コマンドラインパラメータ
パラメータの完全なリストについては、ここを参照してください。
8. 例
*…
9. ライセンス
Apache-2.0 ライセンス
ダークネットオブジェクト検出フレームワークとYOLO
!ダークネットとhank.aiのロゴ
Darknet は、C、C++、CUDA で書かれたオープンソースのニューラル ネットワーク フレームワークです。
YOLO (You Only Look Once) は、ダークネット フレームワークの最先端のリアルタイム オブジェクト検出システムです。
Hank.ai がダークネット/YOLO コミュニティにどのように貢献しているかを読む
ダークネット V3「ジャズ」を発表
ダークネット/YOLO Web サイトをチェックしてください。
ダークネット/YOLO FAQ をお読みください。
Darknet/YOLO Discord サーバーに参加します
論文
論文YOLOv7
紙のスケール - YOLOv4
論文YOLOv4
論文YOLOv3
一般情報
Darknet/YOLO フレームワークは、他のフレームワークや YOLO バージョンよりも高速かつ正確です。
このフレームワークは完全に無料でオープンソースです。 Darknet/YOLO は、ライセンスや料金なしで、商用製品を含む既存のプロジェクトや製品に組み込むことができます。
2024 年 10 月にリリースされた Darknet V3 (「ジャズ」) は、NVIDIA RTX 3090 GPU を使用する場合、LEGO データセット ビデオを最大 1000 FPS で正確に実行できます。つまり、各ビデオ フレームの読み取り、サイズ変更、処理にかかる時間は 1 ミリ秒以下です。ダークネット/YOLO著。
サポートが必要な場合、または Darknet/YOLO について議論したい場合は、Darknet/YOLO Discord サーバーに参加してください: https://discord.gg/zSq8rtW
Darknet/YOLO の CPU バージョンは、Raspberry Pi、クラウドおよび Colab サーバー、デスクトップ、ラップトップ、ハイエンドのトレーニング機器などのシンプルなデバイス上で実行できます。 Darknet/YOLO の GPU バージョンには、NVIDIA の CUDA 互換 GPU が必要です。
Darknet/YOLO は、Linux、Windows、および Mac 上で動作することが知られています。以下のビルド手順を確認してください。
ダークネットバージョン
2013 年から 2017 年に Joseph Redmon によって作成されたオリジナルの Darknet ツールにはバージョン番号がありませんでした。これはバージョン 0.x だと思います。
Alexey Bochkovskiy によって 2017 年から 2021 年に維持され、次に人気のある Darknet リポジトリにもバージョン番号がありません。これはバージョン 1.x だと思います。
Hank.ai が後援し、2023 年から Stéphane Charette によって保守されている Darknet リポジトリには、バージョン コマンドが搭載された最初のリポジトリです。 2023 年から 2024 年末までは、バージョン 2.x「OAK」に戻ります。
目標は、既存の機能をできるだけ壊さずに、コード ベースに慣れることです。
ビルド ステップを書き直したので、CMake を使用して Windows と Linux 上でビルドするための統一された方法が得られました。
C++ コンパイラを使用するようにコード ベースを変換します。
トレーニング中に chart.png を強化します。
バグ修正とパフォーマンス関連の最適化。主にネットワークのトレーニングに必要な時間の短縮に関連します。
このコード ベースの最後のブランチは、v2 ブランチのバージョン 2.1 です。
開発の次の段階は 2024 年半ばに始まり、2024 年 10 月にリリースされる予定です。 version コマンドは 3.x "JAZZ" を返すようになりました。
これらのコマンドのいずれかを実行する必要がある場合は、いつでも以前の v2 ブランチをチェックアウトできます。不足しているコマンドを再度追加するよう調査いたしますので、お知らせください。
多くの古いコマンドやメンテナンスされていないコマンドが削除されました。
トレーニング中と推論中の両方で、多くのパフォーマンスが最適化されています。
古い C API は変更されています。元の Darknet API を使用するアプリケーションには若干の変更が必要です: https://darknetcv.ai/api/api.html
新しい Darknet V3 C および C++ API: https://darknetcv.ai/api/api.html
src-examples の新しいアプリケーションとサンプルコード: https://darknetcv.ai/api/files.html
MSCOCO の事前トレーニング済み重み
便宜上、YOLO のいくつかの一般的なバージョンが MSCOCO データセットで事前トレーニングされています。このデータ セットには 80 のカテゴリが含まれており、テキスト ファイル cfg/coco.names で確認できます。
Darknet/YOLO のテストに利用できる、LEGO Gears や Rolodex などのより単純なデータセットと事前トレーニングされた重みが他にもいくつかあります。詳細については、ダークネット/YOLO FAQ を参照してください。
MSCOCO の事前トレーニングされた重みは、さまざまな場所からダウンロードできます。また、次のリポジトリからもダウンロードできます。
YOLOv2、2016 年 11 月
*YOLOv2-tiny
*YOLOv2-フル
YOLOv3、2018 年 5 月
* YOLOv3-tiny
*YOLOv3-フル
YOLOv4、2020 年 5 月
* YOLOv4-tiny
*YOLOv4-フル
YOLOv7、2022 年 8 月
* YOLOv7-tiny
*YOLOv7-フル
MSCOCO の事前トレーニング済み重みはデモンストレーションのみを目的としています。 MSCOCO に対応する .cfg および .names ファイルは、cfg ディレクトリにあります。コマンド例:
「バッシュ」
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.アビ
`
独自のネットワークをトレーニングする必要があることに注意してください。 MSCOCO は通常、すべてが適切に動作していることを確認するために使用されます。
建てる
過去 (2023 年以前) に利用できたさまざまな構築方法が、統合されたソリューションに統合されました。 Darknet では、C++17 以降、OpenCV、および CMake を使用して必要なプロジェクト ファイルを生成する必要があります。
車を運転するのに整備士である必要があるのと同じように、Darknet/YOLO を構築、インストール、または実行するために C++ の知識は必要ありません。
Googleコラボ
Google Colab の手順は Linux の手順と同じです。新しいネットワークのトレーニングなど、特定のタスクを実行する方法を示す Jupyter ノートブックがいくつかあります。
colab サブディレクトリにあるノートブックをチェックアウトするか、以下の Linux の手順に従ってください。
Linux CMake メソッド
1. 依存関係をインストールする
「バッシュ」
sudo apt-get アップデート
sudo apt-get install build-essential git libopencv-dev cmake
`
2. ダークネット リポジトリのクローンを作成します。
「バッシュ」
git clone https://github.com/hank-ai/darknet.git
`
3. ビルドディレクトリを作成する
「バッシュ」
CDダークネット
mkdir ビルド
CD ビルド
`
4. CMake を使用してビルドを構成する
「バッシュ」
cmake -DCMAKEBUILDTYPE=リリース ..
`
5. ダークネットを構築する
「バッシュ」
make -j4
`
6. ダークネットをインストールする
「バッシュ」
sudo メイクインストール
`
7. ダークネットのテスト
「バッシュ」
ダークネットバージョン
`
Windows CMake メソッド
1. 依存関係をインストールする
「バッシュ」
winget インストール Git.Git
winget インストール Kitware.CMake
winget インストール nsis.nsis
winget インストール Microsoft.VisualStudio.2022.Community
`
2.OpenCVをインストールする
「バッシュ」
CDC:
mkdir C:src
cd C:src
git clone https://github.com/microsoft/vcpkg.git
cd vcpkg
ブートストラップ-vcpkg.bat
.vcpkg.exe 統合インストール
.vcpkg.exe は PowerShell を統合します
.vcpkg.exe インストール opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
3. ダークネット リポジトリのクローンを作成します
「バッシュ」
cd C:src
git clone https://github.com/hank-ai/darknet.git
`
4. ビルドディレクトリを作成する
「バッシュ」
CDダークネット
mkdir ビルド
CD ビルド
`
5. CMake を使用してビルドを構成する
「バッシュ」
cmake -DCMAKEBUILDTYPE=リリース -DCMAKETOOLCHAINFILE=C:srcvcpkgscriptsbuildsystemsvcpkg.cmake ..
`
6. Visual Studio を使用してダークネットを構築する
「バッシュ」
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedsummary darknet.sln
`
7. NSIS インストール パッケージの作成
「バッシュ」
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
8. ダークネットを実行する
「バッシュ」
C:srcdarknetbuildsrc-cliReleasedarknet.exe のバージョン
`
ダークネットの使用
CLI
以下は、Darknet でサポートされるすべてのコマンドの完全なリストではありません。
Darknet CLI に加えて、Darknet/YOLO の代替 CLI を提供する DarkHelp プロジェクト CLI にも注目してください。 DarkHelp CLI には、Darknet にはない高度な機能がいくつかあります。 Darknet CLI と DarkHelp CLI は一緒に使用できますが、相互に排他的ではありません。
以下に示すほとんどのコマンドでは、.weights ファイルと、対応する .names ファイルおよび .cfg ファイルが必要です。ネットワークを自分でトレーニングすることも (強くお勧めします!)、他の人がトレーニングしてインターネット上で自由に入手できるニューラル ネットワークをダウンロードすることもできます。事前トレーニング データセットの例は次のとおりです。
レゴ ギア (画像内のオブジェクトを見つけます)
Rolodex (画像内のテキストを検索)
MSCOCO (標準クラス 80 オブジェクト検出)
実行するコマンドには次のものがあります。
実行可能なコマンドとオプションをいくつかリストします。
ダークネットのヘルプ
バージョンを確認します:
ダークネットバージョン
画像を使用して予測を行う:
V2: ダークネット ディテクタ テストcars.datacars.cfgcars_best.weights image1.jpg
V3: darknet02displayannotatedimagescars.cfg image1.jpg
DarkHelp: DarkHelp 車.cfg 車.cfg 車_ベスト.ウェイト image1.jpg
出力座標:
V2: ダークネット検出器テスト Animals.data Animals.cfg Animalsbest.weights -extoutput Dog.jpg
V3: darknet01inference_images 動物 犬.jpg
DarkHelp: DarkHelp --json Animals.cfg Animals.names Animals_best.weights Dog.jpg
ビデオを使用する:
V2: ダークネット検出器のデモ Animals.data Animals.cfg Animalsbest.weights -extoutput test.mp4
V3: darknet03display_videos Animals.cfg test.mp4
DarkHelp: DarkHelp Animals.cfg Animals.names Animals_best.weights test.mp4
ウェブカメラからの読み取り:
V2: ダークネット検出器のデモ Animals.data Animals.cfg Animals_best.weights -c 0
V3: darknet08display_webcam 動物
結果をビデオに保存:
V2: ダークネット ディテクタ デモ Animals.data Animals.cfg Animalsbest.weights test.mp4 -outfilename res.avi
V3: darknet05processvideosmultithreaded Animals.cfg Animals.name Animals_best.weights test.mp4
DarkHelp: DarkHelp Animals.cfg Animals.names Animals_best.weights test.mp4
JSON:
V2: ダークネット検出器デモ Animals.data Animals.cfg Animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson 動物 image1.jpg
DarkHelp: DarkHelp --json Animals.names Animals.cfg Animals_best.weights image1.jpg
特定の GPU で実行します。
V2: ダークネット検出器のデモ Animals.data Animals.cfg Animals_best.weights -i 1 test.mp4
ニューラル ネットワークの精度を確認します。
「バッシュ」
ダークネット検出器マップ Driving.data Driving.cfg Driving_best.weights ...
ID 名 AvgPrecision TP FN FP TN Accuracy ErrorRate Precision Recall Specificity FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ---------- ----------
0 車両 91.2495 32648 3903 5826 65129 0.9095 0.0905 0.8486 0.8932 0.9179 0.0821
オートバイ 1 台 80.4499 2936 513 569 5393 0.8850 0.1150 0.8377 0.8513 0.9046 0.0954
2 自転車 89.0912 570 124 104 3548 0.9475 0.0525 0.8457 0.8213 0.9715 0.0285
3人 76.7937 7072 1727 2574 27523 0.8894 0.1106 0.7332 0.8037 0.9145 0.0855
4 多くの車両 64.3089 1068 509 733 11288 0.9087 0.0913 0.5930 0.6772 0.9390 0.0610
5 青信号 86.8118 1969 239 510 4116 0.8904 0.1096 0.7943 0.8918 0.8898 0.1102
6 黄信号 82.0390 126 38 30 1239 0.9525 0.0475 0.8077 0.7683 0.9764 0.0236
7 赤信号 94.1033 3449 217 451 4643 0.9237 0.0763 0.8844 0.9408 0.9115 0.0885
`
精度の確認 mAP@IoU=75:
ダークネット検出器マップ Animals.data Animals.cfg Animalsbest.weights -iouthresh 0.75
アンカー ポイントの再計算は、DarkMark で 100 回連続して実行され、計算されたすべてのアンカー ポイントから最適なアンカー ポイントを選択するため、最もよく実行されます。ただし、ダークネットで古いバージョンを実行したい場合は、次のようにします。
ダークネット検出器 calcanchors 動物.データ -numof_clusters 6 -幅 320 -高さ 256
新しいネットワークをトレーニングします。
darknet detecter -map -dont_show train Animals.data Animals.cfg (以下のトレーニングセクションも参照)
電車
ダークネット/YOLO FAQ の関連セクションへのクイック リンク:
ファイルとディレクトリをどのように設定すればよいですか?
どのプロファイルを使用すればよいですか?
独自のネットワークをトレーニングする場合、どのコマンドを使用する必要がありますか?
DarkMark を使用して必要なすべての Darknet ファイルを作成するのが、アノテーションを付けてトレーニングする最も簡単な方法です。これは間違いなく、新しいニューラル ネットワークをトレーニングする場合に推奨される方法です。
カスタム ネットワークをトレーニングするためにさまざまなファイルを手動でセットアップする場合は、次の手順を実行します。
1. 新しいフォルダーを作成します
ファイルを保存する新しいフォルダーを作成します。たとえば、動物を検出するニューラル ネットワークを作成するので、次のディレクトリを作成します: ~/nn/animals/。
2. 設定ファイルをコピーする
テンプレートとして使用する Darknet 構成ファイルの 1 つをコピーします。たとえば、cfg/yolov4-tiny.cfg を参照してください。作成したフォルダーに置きます。たとえば、今では ~/nn/animals/animals.cfg があります。
3. .names ファイルを作成する
構成ファイルを配置するのと同じフォルダーに、animals.names テキスト ファイルを作成します。たとえば、今では ~/nn/animals/animals.names があります。
4. .names ファイルを編集します
テキスト エディタを使用して、animals.names ファイルを編集します。使用するカテゴリをリストします。エントリは 1 行に 1 つだけ存在する必要があり、空白行やコメントは含まれません。たとえば、.names ファイルにはちょうど 4 行が含まれます。
`
犬
猫
鳥
馬
`
5. .data ファイルの作成
同じフォルダーにanimals.dataテキストファイルを作成します。たとえば、.data ファイルには次のものが含まれます。
`
クラス=4
train=/home/ユーザー名/nn/animals/animals_train.txt
valid=/home/ユーザー名/nn/animals/animals_valid.txt
names=/ホーム/ユーザー名/nn/animals/animals.names
バックアップ=/ホーム/ユーザー名/nn/animals
`
6. データセットフォルダーを作成する
画像と注釈を保存するフォルダーを作成します。たとえば、これは ~/nn/animals/dataset などです。各画像には、その画像の注釈を説明する対応する .txt ファイルが必要です。 .txt コメント ファイルの形式は非常に特殊です。各注釈には注釈の正確な座標が含まれている必要があるため、これらのファイルを手動で作成することはできません。画像に注釈を付けるには、DarkMark または他の同様のソフトウェアを確認してください。 YOLO アノテーション形式については、Darknet/YOLO FAQ で説明されています。
7. 「トレーニング」ファイルと「有効な」ファイルを作成します
.data ファイル内に名前を付けた「train」および「valid」テキスト ファイルを作成します。これら 2 つのテキスト ファイルには、ダークネットが mAP% を計算する際のトレーニングと検証にそれぞれ使用する必要があるすべての画像をリストする必要があります。 1 行に 1 つの画像のみ。パスとファイル名は相対パスまたは絶対パスにすることができます。
8. .cfg ファイルを変更します。
テキスト エディタを使用して .cfg ファイルを変更します。
* バッチ=64 であることを確認してください。
※細分化に注意してください。ネットワークのサイズと GPU で利用可能なメモリの量に応じて、サブディビジョンを増やす必要がある場合があります。最適な値は 1 なので、1 から始めます。 1 が機能しない場合は、Darknet/YOLO FAQ を参照してください。
maxbatches=… に注意してください。最初はカテゴリ数の 2000 倍が適切な値です。たとえば、動物が 4 匹いるので、4 2000 = 8000 となります。これは、maxbatches=8000 を使用することを意味します。
* 手順=…に注意してください。これは最大バッチの 80% と 90% に設定する必要があります。たとえば、maxbatches が 8000 に設定されているため、steps=6400,7200 を使用します。
* width=... と height=.... に注意してください。これらはネットワークのディメンションです。 Darknet/YOLO FAQ では、使用する最適なサイズを計算する方法について説明しています。
各 [yolo] セクションの前の [convolutional] セクションで、classes=... 行と filters=... 行のすべてのインスタンスを見つけます。使用する値は (クラス数 + 5) 3 です。これは、この例では (4 + 5) * 3 = 27 であることを意味します。したがって、対応する行で filters=27 を使用します。
9. トレーニングを開始する
次のコマンドを実行します。
「バッシュ」
cd ~/nn/動物/
ダークネット ディテクタ -map -dont_show train Animals.data Animals.cfg
`
我慢して。最適な重みは、animals_best.weights として保存されます。 chart.png ファイルを表示すると、トレーニングの進行状況を確認できます。新しいネットワークをトレーニングするときに使用する追加パラメータについては、Darknet/YOLO FAQ を参照してください。
トレーニング中に詳細を確認したい場合は、--verbose パラメーターを追加します。例えば:
「バッシュ」
ダークネット ディテクタ -map -dont_show --verbose train Animals.data Animals.cfg
`
その他のツールとリンク
Darknet/YOLO プロジェクトを管理し、画像に注釈を付け、注釈を検証し、Darknet でのトレーニングに必要なファイルを生成するには、DarkMark を確認してください。
画像ステッチング、ビデオ内のオブジェクト追跡、または商用アプリケーションで簡単に使用できる強力な C++ API を使用するための、Darknet に代わる強力な CLI については、DarkHelp を確認してください。
Darknet/YOLO FAQ をチェックして、質問の答えに役立つかどうかを確認してください。
Stephane の YouTube チャンネルにある多くのチュートリアルとサンプルビデオをご覧ください。
サポートに関する質問がある場合、または他の Darknet/YOLO ユーザーとチャットしたい場合は、Darknet/YOLO discord サーバーに参加してください。
ロードマップ
最終更新日: 2024 年 10 月 30 日:
完了しました
トレーニング中に qsort() を std::sort() に置き換えました (他のいくつかのあいまいさはまだ存在します)
check_missing、getchar()、system() を削除
C++ コンパイラを使用するように Darknet を変換します (Linux では g++、Windows では Visual Studio)
Windows ビルドを修正する
Python サポートを修正
ダークネットライブラリを構築する
予測のラベルを再度有効にします (「アルファベット」コード)
CUDA/GPU コードを再度有効にする
CUDNNを再度有効にする
CUDNN 半分を再度有効にする
CUDA アーキテクチャをハードコードしないでください
CUDA バージョン情報の改善
AVXを再度有効にする
古いソリューションと Makefile を削除します
OpenCVを非オプションにする
古い pthread ライブラリへの依存関係を削除する
STBの削除
新しい CUDA インストルメンテーションを使用するように CMakeLists.txt を書き換えます
古い「アルファベット」コードを削除し、データ/ラベル内の 700 以上の画像を削除しました
ソースコードの外でビルドする
バージョン番号の出力を改善する
トレーニング関連のパフォーマンスの最適化 (継続的なタスク)
推論に関連するパフォーマンスの最適化 (進行中のタスク)
可能な限り値による参照を使用する
.hpp ファイルをクリーンアップする
darknet.hを書き換える
cv::Mat を void に変換せず、適切な C++ オブジェクトとして使用してください。
内部イメージ構造の一貫した使用法を修正または維持する
ARM ベースの Jetson デバイスのビルドを修正
*オリジナルの Jetson デバイスは NVIDIA でサポートされなくなったため (C++17 コンパイラーがない)、修正される可能性は低いです。
* 新しい Jetson Orin デバイスが実行中
V3 で Python API を修正
* より良い Python サポートが必要です (助けてくれる Python 開発者はいますか?)
短期的な目標
printf() を std::cout に置き換えます (作業中)
古い ZED カメラのサポートを調査する
コマンドライン解析の改善と一貫性の向上 (作業中)
中期目標
すべての文字コードを削除し、std::string に置き換えます。
警告を非表示にせず、コンパイラ警告をクリーンアップします (作業中)
C のカスタム イメージ構造の代わりに cv::Mat を使用する方が良い (作業中)
古いリスト関数を std::vector または std::list に置き換えます。
1 チャンネルのグレースケール画像のサポートを修正
N > 3 の N チャネル画像のサポートを追加します (例: 深度または熱チャネルが追加された画像)
進行中のコードのクリーンアップ (進行中)
長期的な目標
すべての GPU での CUDA/CUDNN の問題を修正
CUDA+cuDNNコードを書き換える
非 NVIDIA GPU のサポートの追加を調査する
回転された境界ボックス、またはある種の「角度」サポート
キーポイント・骨格
ヒートマップ (作業中)
セグメンテーション