UniGetUI (formerly WingetUI)
Downcodes小編為您介紹UniGetUI,一個為Windows 10和11用戶打造的直覺GUI介面,旨在簡化常見CLI套件管理器的使用,例如WinGet、Scoop、Chocolatey、Pip、Npm、.NET Tool和PowerShell Gallery。
UniGetUI的功能
使用UniGetUI,您可以輕鬆下載、安裝、更新和卸載所有支援的套件管理器上發布的軟體,以及更多功能!
UniGetUI支援的套件管理器
請查看“支援的套件管理器表”以獲取更多詳細資訊!
免責聲明
UniGetUI專案與任何支援的套件管理器之間沒有任何關聯,它完全是非官方的。請注意,UniGetUI的開發者Downcodes小編不對下載的軟體負責。請謹慎使用!
注意
UniGetUI的官方網站是https://www.marticliment.com/unigetui/。任何其他網站都應視為非官方網站,無論它們怎麼說。尤其是wingetui.com,不是UniGetUI(以前稱為WingetUI)的官方網站。
支援開發者
您的支持對於UniGetUI的持續發展至關重要,並深受Downcodes小編的感謝。謝謝!
目錄
1. 安裝
有多種方法可以安裝UniGetUI,請選擇您喜歡的安裝方式!
* Microsoft Store 安裝(建議)
點擊此處下載UniGetUI安裝程式。
* 透過Winget 安裝
`bash
winget install --exact --id MartiCliment.UniGetUI --source winget
`
* 透過Scoop 安裝
注意:目前UniGetUI的Scoop套件有問題。請暫時不要透過Scoop安裝UniGetUI。
`bash
# rem The current UniGetUI scoop package is broken. Please do not install UniGetUI via scoop for the time being
# rem scoop bucket add extras
# rem scoop install extras/wingetui
`
* 透過Chocolatey 安裝
`bash
choco install wingetui
`
2. 更新UniGetUI
UniGetUI內建了自動更新功能。但是,您也可以像在UniGetUI中更新任何其他套件一樣更新它(因為UniGetUI可以透過Winget和Scoop取得)。
3. 功能
* 支援的套件管理器
注意:所有套件管理器都支援基本的安裝、更新和卸載流程,以及檢查更新、尋找新套件和從套件中檢索詳細資訊。
| 套件管理器| 支援| 說明|
|---|---|---|
| WinGet | ✅ | |
| Scoop | ✅ | |
| Chocolatey | ✅ | |
| Pip | ✅ | |
| Npm | ✅ | |
| .NET Tool | ✅ | |
| PowerShell Gallery | ✅ | |
說明:
1. 有些套件不支援安裝到自訂位置或作用域,將忽略此設定。
2. 儘管套件管理器可能不支援預發布版本,但某些套件可能會被複製,其中一個副本是其的beta版本。
3. 有些安裝程式沒有GUI,將忽略互動式標誌。
* 將UniGetUI 翻譯成其他語言
若要將UniGetUI翻譯成其他語言或更新舊翻譯,請參閱UniGetUI Wiki 以取得更多資訊。
* 目前支援的語言
* 更新時間: Tue Oct 29 00:13:19 2024
4. 貢獻
沒有我們親愛的貢獻者的幫助,UniGetUI是不可能存在的。從修復錯字的人到改進一半程式碼的人,UniGetUI離不開他們的貢獻!
貢獻者:
* …
5. 截圖
* …
6. 常見問題解答
* 我無法安裝或升級特定的Winget 套件!我該怎麼辦?
這可能是Winget而不是UniGetUI的問題。請檢查是否可以透過PowerShell或命令提示字元使用命令winget upgrade或winget install(根據情況,例如:winget upgrade --id Microsoft.PowerToys)來安裝/升級該套件。如果這不起作用,請考慮在Winget專案頁面上尋求協助。
* 套件的名稱被省略號截斷了-如何查看其完整名稱/ID?
這是一個Winget的已知限制。有關更多詳細信息,請參閱此問題:microsoft/winget-cli#2603。
* 我的防毒軟體告訴我UniGetUI 是病毒! /我的瀏覽器阻止下載UniGetUI!
應用程式(即可執行檔案)被阻止和/或被檢測為病毒的常見原因——即使它們沒有惡意程式碼,例如UniGetUI——是因為相對較少的人使用它們。再加上你可能正在下載最近發布的東西,而且在許多情況下,阻止未知應用程式是防止真正惡意軟體的良好預防措施。由於UniGetUI是開源的並且安全使用,請在防毒軟體/瀏覽器的設定中將應用程式列入白名單。
* Winget/Scoop 套件安全嗎?
UniGetUI、Microsoft和Scoop不對可供下載的套件負責,這些套件由第三方提供,理論上可能會被破壞。 Microsoft對Winget上可用的軟體實施了一些檢查,以降低下載惡意軟體的風險。即使如此,也建議您只從可信賴的發布者下載軟體。查看Wiki以了解更多資訊!
7. 命令列參數
請查看此處以取得完整參數清單。
8. 範例
* …
9. 許可證
Apache-2.0 許可證
Darknet 物件偵測框架和YOLO
!darknet 和hank.ai logo
Darknet 是一個用C、C++ 和CUDA 寫的開源神經網路框架。
YOLO(You Only Look Once)是Darknet 框架中的一種最先進的即時物體偵測系統。
閱讀Hank.ai 如何幫助Darknet/YOLO 社區
宣布Darknet V3 "Jazz"
查看Darknet/YOLO 網站
請閱讀Darknet/YOLO 常見問題解答
加入Darknet/YOLO discord 伺服器
Papers
Paper YOLOv7
Paper Scaled-YOLOv4
Paper YOLOv4
Paper YOLOv3
General Information
Darknet/YOLO 框架比其他框架和YOLO 版本更快、更準確。
該框架完全免費且開源。您可以將Darknet/YOLO 納入現有項目和產品中- 包括商業產品- 無需許可或付費。
Darknet V3(“Jazz”)於2024 年10 月發布,在使用NVIDIA RTX 3090 GPU 時,可以準確地運行LEGO 數據集視頻,速度高達1000 FPS,這意味著每個視頻幀都在1 毫秒或更短的時間內被Darknet/YOLO 讀取、調整大小和處理。
如果您需要協助或想討論Darknet/YOLO,請加入Darknet/YOLO Discord 伺服器: https://discord.gg/zSq8rtW
Darknet/YOLO 的CPU 版本可以在簡單的裝置上運行,例如Raspberry Pi、雲端和colab 伺服器、桌上型電腦、筆記型電腦和高階訓練設備。 Darknet/YOLO 的GPU 版本需要NVIDIA 的CUDA 相容GPU。
Darknet/YOLO 已知可在Linux、Windows 和Mac 上運作。請參閱下面的建置說明。
Darknet 版本
Joseph Redmon 在2013-2017 年寫的原始Darknet 工具沒有版本號。我們認為這是版本0.x。
Alexey Bochkovskiy 在2017-2021 年期間維護的下一個流行的Darknet 儲存庫也沒有版本號。我們認為這是版本1.x。
由Hank.ai 贊助並由Stéphane Charette 從2023 年開始維護的Darknet 儲存庫是第一個具有版本命令的儲存庫。從2023 年到2024 年底,它返回版本2.x “OAK”。
目標是在盡可能少破壞現有功能的同時,熟悉程式碼庫。
重寫了建置步驟,因此我們有1 種統一的方式來使用CMake 在Windows 和Linux 上建置。
將程式碼庫轉換為使用C++ 編譯器。
在訓練期間增強chart.png。
錯誤修復和與效能相關的最佳化,主要與減少訓練網路所需的時間有關。
此程式碼庫的最後一個分支是v2 分支中的版本2.1。
下一階段的開發始於2024 年年中,並於2024 年10 月發布。版本命令現在返回3.x “JAZZ”。
如果您需要執行這些命令之一,您始終可以簽出先前的v2 分支。請告知我們,以便我們可以調查添加回任何缺少的命令。
刪除了許多舊的和未維護的命令。
許多性能優化,無論是在訓練期間還是在推理期間。
舊的C API 已被修改;使用原始Darknet API 的應用程式需要少量修改:https://darknetcv.ai/api/api.html
新的Darknet V3 C 和C++ API:https://darknetcv.ai/api/api.html
src-examples 中的新應用程式和範例程式碼:https://darknetcv.ai/api/files.html
MSCOCO 預訓練權重
為了方便起見,在MSCOCO 資料集上對YOLO 的幾個流行版本進行了預訓練。此資料集包含80 個類別,可以在文字檔cfg/coco.names 中看到。
還有其他幾個更簡單的可用資料集和預訓練權重,用於測試Darknet/YOLO,例如LEGO Gears 和Rolodex。有關詳細信息,請參閱Darknet/YOLO 常見問題。
可以從多個不同位置下載MSCOCO 預訓練權重,也可以從該儲存庫下載:
YOLOv2,2016 年11 月
* YOLOv2-tiny
* YOLOv2-full
YOLOv3,2018 年5 月
* YOLOv3-tiny
* YOLOv3-full
YOLOv4,2020 年5 月
* YOLOv4-tiny
* YOLOv4-full
YOLOv7,2022 年8 月
* YOLOv7-tiny
* YOLOv7-full
MSCOCO 預訓練權重僅用於演示目的。 MSCOCO 的對應.cfg 和.names 檔案位於cfg 目錄中。範例命令:
`bash
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights darknet02displayannotatedatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg Darkg cooco-vr. avi
`
請注意,人們應該訓練自己的網路。 MSCOCO 通常用於確認一切正常運作。
建構
過去(2023 年之前)可用的各種建置方法已合併到一個統一的解決方案中。 Darknet 需要C++17 或更高版本、OpenCV,並使用CMake 產生必要的專案檔。
您無需了解C++ 即可建置、安裝或執行Darknet/YOLO,就像您無需成為機械師即可駕駛汽車一樣。
Google Colab
Google Colab 說明與Linux 說明相同。有幾個Jupyter 筆記本展示如何執行某些任務,例如訓練新網路。
請查看colab 子目錄中的筆記本,或按照下面的Linux 說明進行操作。
Linux CMake 方法
1. 安裝依賴項
`bash
sudo apt-get update
sudo apt-get install build-essential git libopencv-dev cmake
`
2. 克隆Darknet 儲存庫
`bash
git clone https://github.com/hank-ai/darknet.git
`
3. 建立建置目錄
`bash
cd darknet
mkdir build
cd build
`
4. 使用CMake 配置構建
`bash
cmake -DCMAKEBUILDTYPE=Release ..
`
5. 建置Darknet
`bash
make -j4
`
6. 安裝Darknet
`bash
sudo make install
`
7. 測試Darknet
`bash
darknet version
`
Windows CMake 方法
1. 安裝依賴項
`bash
winget install Git.Git
winget install Kitware.CMake
winget install nsis.nsis
winget install Microsoft.VisualStudio.2022.Community
`
2. 安裝OpenCV
`bash
cd C:
mkdir C:src
cd C:src
git clone https://github.com/microsoft/vcpkg.git
cd vcpkg
bootstrap-vcpkg.bat
.vcpkg.exe integrate install
.vcpkg.exe integrate powershell
.vcpkg.exe install opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
3. 克隆Darknet 儲存庫
`bash
cd C:src
git clone https://github.com/hank-ai/darknet.git
`
4. 建立建置目錄
`bash
cd darknet
mkdir build
cd build
`
5. 使用CMake 配置構建
`bash
cmake -DCMAKEBUILDTYPE=Release -DCMAKETOOLCHAINFILE=C:srcvcpkgscriptsbuildsystemsvcpkg.cmake ..
`
6. 使用Visual Studio 建置Darknet
`bash
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
`
7. 建立NSIS 安裝包
`bash
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
8. 運行Darknet
`bash
C:srcdarknetbuildsrc-cliReleasedarknet.exe version
`
使用Darknet
CLI
以下不是Darknet 支援的所有命令的完整清單。
除了Darknet CLI 之外,還要注意DarkHelp 專案CLI,它提供了Darknet/YOLO 的替代CLI。 DarkHelp CLI 還有幾個Darknet 中沒有的先進功能。您可以將Darknet CLI 和DarkHelp CLI 結合使用,它們並不互相排斥。
對於下面顯示的大多數命令,您將需要.weights 檔案以及相應的.names 和.cfg 檔案。您可以自行訓練網路(強烈建議!),或下載其他人已經訓練並免費在網路上提供的神經網路。預訓練資料集的範例包括:
LEGO Gears(在影像中尋找物體)
Rolodex(在圖像中尋找文字)
MSCOCO(標準80 類物體偵測)
要運行的命令包括:
列出一些可以運行的可能命令和選項:
darknet help
檢查版本:
darknet version
使用影像進行預測:
V2: darknet detector test cars.data cars.cfg cars_best.weights image1.jpg
V3: darknet02displayannotatedimages cars.cfg image1.jpg
DarkHelp: DarkHelp cars.cfg cars.cfg cars_best.weights image1.jpg
輸出座標:
V2: darknet detector test animals.data animals.cfg animalsbest.weights -extoutput dog.jpg
V3: darknet01inference_images animals dog.jpg
DarkHelp: DarkHelp --json animals.cfg animals.names animals_best.weights dog.jpg
使用影片:
V2: darknet detector demo animals.data animals.cfg animalsbest.weights -extoutput test.mp4
V3: darknet03display_videos animals.cfg test.mp4
DarkHelp: DarkHelp animals.cfg animals.names animals_best.weights test.mp4
從網路攝影機讀取:
V2: darknet detector demo animals.data animals.cfg animals_best.weights -c 0
V3: darknet08display_webcam animals
將結果儲存到影片:
V2: darknet detector demo animals.data animals.cfg animalsbest.weights test.mp4 -outfilename res.avi
V3: darknet05processvideosmultithreaded animals.cfg animals.names animals_best.weights test.mp4
DarkHelp: DarkHelp animals.cfg animals.names animals_best.weights test.mp4
JSON:
V2: darknet detector demo animals.data animals.cfg animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson animals image1.jpg
DarkHelp: DarkHelp --json animals.names animals.cfg animals_best.weights image1.jpg
在特定GPU 上運行:
V2: darknet detector demo animals.data animals.cfg animals_best.weights -i 1 test.mp4
檢查神經網路的準確性:
`bash
darknet detector map driving.data driving.cfg driving_best.weights ...
Id Name AvgPrecision TP FN FP TN Accuracy ErrorRate Precision Recall Specificity FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ----------- ------------
0 vehicle 91.2495 32648 3903 5826 65129 0.9095 0.0905 0.8486 0.8932 0.9179 0.0821
1 motorcycle 80.4499 2936 513 569 5393 0.8850 0.1150 0.8377 0.8513 0.9046 0.0954
2 bicycle 89.0912 570 124 104 3548 0.9475 0.0525 0.8457 0.8213 0.9715 0.0285
3 person 76.7937 7072 1727 2574 27523 0.8894 0.1106 0.7332 0.8037 0.9145 0.0855
4 many vehicles 64.3089 1068 509 733 11288 0.9087 0.0913 0.5930 0.6772 0.9390 0.0610
5 green light 86.8118 1969 239 510 4116 0.8904 0.1096 0.7943 0.8918 0.8898 0.1102
6 yellow 光 82.0390 126 38 30 1239 0.9525 0.0475 0.8077 0.7683 0.9764 0.0236
7 red light 94.1033 3449 217 451 4643 0.9237 0.0763 0.8844 0.9408 0.9115 0.0885
`
檢查準確度mAP@IoU=75:
darknet detector map animals.data animals.cfg animalsbest.weights -iouthresh 0.75
重新計算錨點最好在DarkMark 中完成,因為它將連續運行100 次並從所有計算的錨點中選擇最佳錨點。但是,如果您想在Darknet 中執行舊版本:
darknet detector calcanchors animals.data -numof_clusters 6 -width 320 -height 256
訓練新網路:
darknet detector -map -dont_show train animals.data animals.cfg (另請參閱下面的訓練部分)
訓練
有關Darknet/YOLO 常見問題解答的相關部分的快速連結:
我應該如何設定我的文件和目錄?
我應該使用哪個設定檔?
訓練自己的網路時應該使用哪個指令?
使用DarkMark 來建立所有必要的Darknet 檔案是註解和訓練的最簡單方法。這絕對是訓練新神經網路的推薦方法。
如果您希望手動設定各種文件來訓練自訂網路:
1. 建立新資料夾
建立一個新資料夾來儲存檔案。例如,將建立一個神經網路來偵測動物,因此建立以下目錄:~/nn/animals/。
2. 複製設定檔
複製您想用作模板的Darknet 設定檔之一。例如,請參閱cfg/yolov4-tiny.cfg。將其放置在您建立的資料夾中。例如,現在我們有~/nn/animals/animals.cfg。
3. 建立.names 文件
在放置設定檔的同一個資料夾中建立一個animals.names 文字檔案。例如,現在我們有~/nn/animals/animals.names。
4. 編輯.names 文件
使用文字編輯器編輯animals.names 檔案。列出您要使用的類別。每行需要有且只有一個條目,沒有空白行,也沒有註解。例如,.names 檔案將恰好包含4 行:
`
dog
cat
鳥
horse
`
5. 建立.data 文件
在同一個資料夾中建立一個animals.data 文字檔。例如,.data 檔案將包含:
`
classes=4
train=/home/username/nn/animals/animals_train.txt
valid=/home/username/nn/animals/animals_valid.txt
names=/home/username/nn/animals/animals.names
backup=/home/username/nn/animals
`
6. 建立資料集資料夾
建立一個資料夾來儲存您的圖像和註釋。例如,這可能是~/nn/animals/dataset。每個圖像都需要一個相應的.txt 文件,該文件描述該圖像的註釋。 .txt 註解文件的格式非常具體。您不能手動建立這些文件,因為每個註釋都需要包含註釋的精確座標。查看DarkMark 或其他類似軟體來註釋您的圖像。 YOLO 註解格式在Darknet/YOLO 常見問題中進行了描述。
7. 建立“train”和“valid”文件
建立.data 檔案中命名的「train」和「valid」文字檔。這兩個文字檔案需要分別列出所有Darknet 必須用於訓練和在計算mAP% 時進行驗證的圖像。每行恰好一個圖像。路徑和檔案名稱可以是相對路徑或絕對路徑。
8. 修改.cfg 文件
使用文字編輯器修改您的.cfg 檔案。
* 確保batch=64。
* 注意subdivisions。根據網路尺寸和GPU 上可用的記憶體量,您可能需要增加subdivisions。最佳值是1,所以從1 開始。如果1 不適合您,請參閱Darknet/YOLO 常見問題。
注意maxbatches=...。開始時一個好的值是類別的數量的2000 倍。例如,我們有4 種動物,所以4 2000 = 8000。這意味著我們將使用maxbatches=8000。
* 注意steps=...。這應該設定為maxbatches 的80% 和90%。例如,由於maxbatches 被設定為8000,因此我們將使用steps=6400,7200。
* 注意width=... 和height=...。這些是網路尺寸。 Darknet/YOLO 常見問題解答說明如何計算要使用的最佳尺寸。
在每個[yolo] 部分之前的[convolutional] 部分中,尋找classes=... 和filters=... 行的所有實例。要使用的值是(numberofclasses + 5) 3。這意味著對於這個例子,(4 + 5) * 3 = 27。所以我們將在對應的行上使用filters=27。
9. 開始訓練
運行以下命令:
`bash
cd ~/nn/animals/
darknet detector -map -dont_show train animals.data animals.cfg
`
耐心點。最佳權重將儲存為animals_best.weights。可以透過查看chart.png 檔案來觀察訓練進度。有關您可能想要在訓練新網路時使用的其他參數,請參閱Darknet/YOLO 常見問題。
如果您想在訓練期間查看更多詳細信息,請添加--verbose 參數。例如:
`bash
darknet detector -map -dont_show --verbose train animals.data animals.cfg
`
其他工具和鏈接
要管理您的Darknet/YOLO 項目,註釋圖像,驗證您的註釋,並產生使用Darknet 訓練所需的必要文件,請查看DarkMark。
要獲得Darknet 的強大替代CLI,以使用影像拼接、在影片中進行物件跟踪,或使用可以在商業應用程式中輕鬆使用的強大C++ API,請查看DarkHelp。
請參閱Darknet/YOLO 常見問題解答,看看它是否可以幫助回答您的問題。
查看Stéphane YouTube 頻道上的眾多教學和範例視頻
如果您有支援問題或想與其他Darknet/YOLO 用戶聊天,請加入Darknet/YOLO discord 伺服器。
Roadmap
最後更新時間2024-10-30:
已完成
在訓練期間將qsort() 替換為std::sort()(一些其他的模糊的仍然存在)
刪除check_mistakes、getchar() 和system()
將Darknet 轉換為使用C++ 編譯器(Linux 上的g++,Windows 上的VisualStudio)
修復Windows 建置
修復Python 支持
建置darknet 庫
重新啟用預測中的標籤(“alphabet” 代碼)
重新啟用CUDA/GPU 程式碼
重新啟用CUDNN
重新啟用CUDNN half
不要硬編碼CUDA 架構
更好的CUDA 版本信息
重新啟用AVX
刪除舊的解決方案和Makefile
使OpenCV 非可選
刪除對舊的pthread 函式庫的依賴
刪除STB
重寫CMakeLists.txt 以使用新的CUDA 檢測
刪除舊的「alphabet」程式碼,並刪除data/labels 中的700 多個影像
在原始碼之外構建
有更好的版本號輸出
與訓練相關的效能最佳化(正在進行的任務)
與推理相關的效能最佳化(正在進行的任務)
盡可能使用傳值引用
清理.hpp 文件
重寫darknet.h
不要將cv::Mat 轉換為void,而是將其用作適當的C++ 對象
修復或保持一致內部影像結構的使用方式
修復針對ARM 架構的Jetson 裝置的構建
* 原始的Jetson 裝置不太可能被修復,因為它們不再受NVIDIA 支援(沒有C++17 編譯器)
* 新的Jetson Orin 設備正在運行
修復V3 中的Python API
* 需要更好的Python 支援(有Python 開發者願意幫忙嗎?)
短期目標
將printf() 替換為std::cout(正在進行中)
調查舊的zed 攝影機支持
更好、更一致的命令列解析(正在進行中)
中期目標
刪除所有char 程式碼,並用std::string 替換
不要隱藏警告並清理編譯器警告(正在進行中)
更好地使用cv::Mat,而不是C 中的自訂影像結構(正在進行中)
用std::vector 或std::list 取代舊的清單功能
修復對1 通道灰階影像的支持
添加對N 通道影像的支持,其中N > 3(例如,具有附加深度或熱通道的影像)
正在進行的程式碼清理(正在進行中)
長期目標
修復所有GPU 的CUDA/CUDNN 問題
重寫CUDA+cuDNN 程式碼
調查添加對非NVIDIA GPU 的支持
旋轉的邊界框,或某種“角度”支持
關鍵點/骨架
熱圖(進行中)
分割