Asp+Csv智適應通用成績查詢系統
Downcodes小編今天要跟大家介紹一款以asp基礎進行開發、發佈的asp查詢csv格式資料的查詢系統,Asp+Csv智適應通用成績查詢系統,希望大家喜歡。
軟體極為簡單卻是個非常通用、非常方便的成績查詢系統,通用於幾乎所有Excel單二維資料表查詢。
使用用途
本系統適合修改不頻繁、保密性不高的成績、薪資、物業水電費等各種精準查詢,具體使用情境如下:
1. 成績查詢系統:適用於每所學校、教育機構、事業單位考試等。
2. 薪資查詢系統:適用於每所學校、教育機構、事業單位考試等。
3. 物業費查詢系統:適用於每個企業、學校、所有單位。
4. 水電費查詢系統:適用於社區、物業公司、大學寢室等。
5. 其他查詢系統:如分班查詢、入學查詢、證書查詢等修改不多的各種查詢系統。
特色優勢
1. 通用性強: 幾乎通用於所有二維表,可以滿足你的大部分需求。
2. 簡單方便: 程式碼小巧簡單,可以快速修改以適合多表聯查等各種場景。
3. 靈活易用: 只需修改幾個參數即可私人自訂查詢。
4. 快速使用: 發布一次成績最快兩三分鐘可解決。
限制說明
1. 修改頻繁不適合: 成績、工資、水電費等一般都一次性出來不修改,修改頻繁的場景不適合使用該系統。
2. 只適合二維表: 一般資料庫都採用二維結構,首行列標題,以後一行一條數據,該系統暫不支援其他結構的數據。
3. 單庫記錄數建議控制: 此系統不限制單庫記錄數,但建議單庫控制在3萬個以內,可分庫,各庫互不影響。
4. 暫不支援公式、圖片、網址: 此系統暫不支援公式、圖片、網址等內容。
使用建議
直接透過FTP上傳即可使用,建議先直接上傳查詢測試。
前台訪問: http://網址/目錄/ (上傳直接使用,無需mysql資料庫等的支援)
然後使用notepad++開啟inc/conn.Asp查看參數與網頁對應關係,再開啟預設自帶的資料庫比較查詢結果,查看對應關係。
使用步驟
詳見壓縮包內html格式檔。
範例
以下以Darknet Object Detection Framework and YOLO為例,展示如何使用Markdown的標題標籤元素,以及一些排版調整,讓資訊展現更整齊,用戶查閱更方便:
Darknet Object Detection Framework and YOLO
!darknet and hank.ai logos
Darknet是一個用C、C++和CUDA寫的開源神經網路框架。
YOLO (You Only Look Once)是一個最先進的即時目標偵測系統,運行在Darknet框架中。
Papers
Paper YOLOv7
Paper Scaled-YOLOv4
Paper YOLOv4
Paper YOLOv3
General Information
Darknet/YOLO框架繼續比其他框架和YOLO版本更快、更準確。
該框架完全免費且開源。您可以在現有專案和產品中使用Darknet/YOLO,包括商業產品,而無需許可或付費。
2024年10月發布的Darknet V3 ("Jazz"),在使用NVIDIA RTX 3090 GPU時,可以以高達1000 FPS的速度準確運行LEGO數據集視頻,這意味著每個視頻幀在1毫秒或更短的時間內由Darknet/YOLO讀取、調整大小和處理。
如果您需要協助或想討論Darknet/YOLO,請加入Darknet/YOLO Discord伺服器:https://discord.gg/zSq8rtW
Darknet/YOLO的CPU版本可在Raspberry Pi、雲端&colab伺服器、桌上型電腦、筆記型電腦和高階訓練設備等簡單設備上運作。 Darknet/YOLO的GPU版本需要NVIDIA的CUDA-capable GPU。
Darknet/YOLO已知可在Linux、Windows和Mac上運作。請查看下面的建置說明。
Darknet Version
由Joseph Redmon在2013-2017年編寫的原始Darknet工具沒有版本號。我們認為這是0.x版本。
由Alexey Bochkovskiy在2017-2021年維護的下一個流行的Darknet倉庫也沒有版本號。我們認為這是1.x版本。
從2023年開始由Hank.ai贊助並由Stéphane Charette維護的Darknet倉庫是第一個擁有版本命令的倉庫。從2023年到2024年底,它返回版本2.x "OAK"。
目標是在嘗試盡可能少地破壞現有功能的同時,熟悉程式碼庫。
重寫了建置步驟,以便我們有一個統一的方法,使用CMake在Windows和Linux上建置。
將程式碼庫轉換為使用C++編譯器。
增強了訓練期間的chart.png。
錯誤修復和與效能相關的最佳化,主要與減少訓練網路所需的時間有關。
該程式碼庫的最後一個分支是v2分支中的版本2.1。
下一階段的開發始於2024年中期,並在2024年10月發布。版本命令現在返回3.x "JAZZ"。
如果您需要執行這些命令之一,可以始終簽出先前的v2分支。如果您需要協助,請告知我們,以便我們調查新增任何缺少的命令。
刪除了許多舊的和未維護的命令。
進行了許多性能優化,包括訓練和推理期間的優化。
修改了舊的C API;使用原始Darknet API的應用程式將需要進行少量修改:https://darknetcv.ai/api/api.html
新的Darknet V3 C和C++ API:https://darknetcv.ai/api/api.html
src-examples中的新應用程式和範例程式碼:https://darknetcv.ai/api/files.html
MSCOCO Pre-trained Weights
為了方便起見,幾個流行的YOLO版本在MSCOCO資料集上進行了預訓練。此資料集包含80個類別,可以在文字檔cfg/coco.names中看到。
還有其他幾個更簡單的可用資料集和預訓練權重,用於測試Darknet/YOLO,例如LEGO Gears和Rolodex。有關詳細信息,請參閱Darknet/YOLO FAQ。
MSCOCO預訓練權重可以從多個不同的位置下載,也可以從這個倉庫下載:
YOLOv2, November 2016
* YOLOv2-tiny
* YOLOv2-full
YOLOv3, May 2018
* YOLOv3-tiny
* YOLOv3-full
YOLOv4, May 2020
* YOLOv4-tiny
* YOLOv4-full
YOLOv7, August 2022
* YOLOv7-tiny
* YOLOv7-full
MSCOCO預訓練權重僅供示範使用。 MSCOCO的對應.cfg和.names檔案位於cfg目錄中。範例命令:
`
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights
darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
`
請注意,人們應該訓練自己的網路。 MSCOCO通常用於確認一切都正常運作。
Building
過去(2023年以前)提供的各種建置方法已合併到一個統一的解決方案中。 Darknet需要C++17或更新版本、OpenCV,並使用CMake產生必要的專案檔。
您不需要了解C++就可以建置、安裝或執行Darknet/YOLO,就像您不需要成為機械師就可以駕駛汽車一樣。
Google Colab
Google Colab的說明與Linux的說明相同。有幾個Jupyter筆記本可供使用,展示如何執行某些任務,例如訓練新網路。
請參閱colab子目錄中的筆記本,或按照下面的Linux說明進行操作。
Linux CMake Method
可選: 如果你有一個現代的NVIDIA GPU,你可以在此時安裝CUDA或CUDA+cuDNN。如果安裝,Darknet將使用你的GPU來加速映像(和視訊)處理。
必需: 你必須從你的Darknet建置目錄中刪除CMakeCache.txt文件,以強制CMake重新找到所有必要的文件。
必需: 記得重新建置Darknet。
Darknet可以在沒有它的情況下運行,但如果你想訓練一個自訂網絡,那麼需要CUDA或CUDA+cuDNN。
請造訪https://developer.nvidia.com/cuda-downloads下載並安裝CUDA。
請造訪https://developer.nvidia.com/rdp/cudnn-download或https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview下載並安裝cuDNN。
一旦安裝了CUDA,確保你可以運行nvcc和nvidia-smi。你可能需要修改你的PATH變數。
如果你稍後安裝了CUDA或CUDA+cuDNN,或是你升級到NVIDIA軟體的更新版本:
這些說明假設(但不一定要求!)系統運行Ubuntu 22.04。如果你使用的是其他發行版,請視需要進行調整。
`
sudo apt-get install build-essential git libopencv-dev cmake
mkdir ~/srccd ~/src
git clone https://github.com/hank-ai/darknetcd darknet
mkdir buildcd build
cmake -DCMAKEBUILDTYPE=Release ..
make -j4
package
sudo dpkg -i darknet-VERSION.deb
`
如果你使用的是舊版的CMake,那麼你需要在執行上面的cmake指令之前升級CMake。在Ubuntu上升級CMake可以使用以下指令:
`
sudo apt-get purge cmake
sudo snap install cmake --classic
`
如果你使用bash作為你的指令shell,你可能需要重新啟動你的shell。如果你使用fish,它應該立即拾取新的路徑。
進階用戶:
如果你想建立一個RPM安裝文件而不是DEB文件,請參閱CM_package.cmake中的相關行。在運行make -j4 package之前,你需要編輯這兩行:
`
SET (CPACKGENERATOR "DEB")# SET (CPACKGENERATOR "RPM")
`
對於Centos和OpenSUSE等發行版,你需要將CM_package.cmake中的這兩行改為:
`
SET (CPACKGENERATOR "DEB")SET (CPACKGENERATOR "RPM")
`
要安裝安裝包,一旦它已建置完成,請使用你的發行版的常用套件管理器。例如,在Debian-based系統(如Ubuntu)上:
`
sudo dpkg -i darknet-2.0.1-Linux.deb
`
安裝.deb套件將複製以下檔案:
/usr/bin/darknet是通常的Darknet可執行檔。從CLI運行darknet version以確認它已正確安裝。
/usr/include/darknet.h是Darknet API,適用於C、C++和Python開發人員。
/usr/include/darknet_version.h包含用於開發人員的版本資訊。
/usr/lib/libdarknet.so是用於C、C++和Python開發人員的函式庫,用於連結。
/opt/darknet/cfg/...是所有.cfg模板儲存的位置。
現在你完成了! Darknet已經建置並安裝到/usr/bin/中。執行以下命令進行測試:darknet version。
如果你沒有/usr/bin/darknet,這意味著你沒有安裝它,你只是建造了它!確保你按照上面描述的那樣安裝.deb或.rpm檔。
Windows CMake Method
這些說明假設你全新安裝了Windows 11 22H2。
打開一個普通的cmd.exe命令提示字元窗口,執行以下命令:
`
winget install Git.Git
winget install Kitware.CMake
winget install nsis.nsis
winget install Microsoft.VisualStudio.2022.Community
`
在此時,我們需要修改Visual Studio安裝以包含對C++應用程式的支援:
* 點選"Windows Start"選單,執行"Visual Studio Installer"。
* 點擊Modify。
* 選擇Desktop Development With C++。
* 點選右下角的Modify,然後點選Yes。
一旦所有內容都下載並安裝完畢,再次點擊"Windows Start"選單,選擇Developer Command Prompt for VS 2022。不要使用PowerShell執行這些步驟,你將會遇到問題!
進階用戶:
而不是執行Developer Command Prompt,你可以使用普通的命令提示字元或ssh進入設備,手動執行"Program FilesMicrosoft Visual Studio2022CommunityCommon7ToolsVsDevCmd.bat"。
一旦你按照上面的說明運行了Developer Command Prompt(不是PowerShell!),請執行以下命令來安裝Microsoft VCPKG,它將用於建立OpenCV:
`
cd c:mkdir c:srccd c:src
git clone https://github.com/microsoft/vcpkgcd vcpkg
bootstrap-vcpkg.bat .vcpkg.exe integrate
install .vcpkg.exe integrate powershell.vcpkg.exe
install opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
請耐心等待最後一步,因為它可能需要很長時間才能運行。它需要下載並構建許多東西。
進階用戶:
請注意,在建造OpenCV時,你可能想要添加許多其他可選模組。運行.vcpkg.exe search opencv查看完整清單。
可選: 如果你有一個現代的NVIDIA GPU,你可以在此時安裝CUDA或CUDA+cuDNN。如果安裝,Darknet將使用你的GPU來加速映像(和視訊)處理。
必需: 你必須從你的Darknet建置目錄中刪除CMakeCache.txt文件,以強制CMake重新找到所有必要的文件。
必需: 記得重新建置Darknet。
Darknet可以在沒有它的情況下運行,但如果你想訓練一個自訂網絡,那麼需要CUDA或CUDA+cuDNN。
請造訪https://developer.nvidia.com/cuda-downloads下載並安裝CUDA。
請造訪https://developer.nvidia.com/rdp/cudnn-download或https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows下載並安裝cuDNN。
一旦安裝了CUDA,確保你可以執行nvcc.exe和nvidia-smi.exe。你可能需要修改你的PATH變數。
一旦你下載了cuDNN,解壓縮並將bin、include和lib目錄複製到C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/[version]/。你可能需要覆蓋一些文件。
如果你稍後安裝了CUDA或CUDA+cuDNN,或是你升級到NVIDIA軟體的更新版本:
CUDA必須在Visual Studio之後安裝。如果你升級了Visual Studio,請記得重新安裝CUDA。
一旦所有前面的步驟成功完成,你需要克隆Darknet並建立它。在此步驟中,我們還需要告訴CMake vcpkg的位置,以便它可以找到OpenCV和其他依賴:
`
cd c:src
git clone https://github.com/hank-ai/darknet.gitcd darknetmkdir buildcd build
cmake -DCMAKEBUILDTYPE=Release -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake ..
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
如果你收到關於一些缺少的CUDA或cuDNN DLLs的錯誤,例如cublas64_12.dll,那麼手動將CUDA .dll檔案複製到與Darknet.exe相同的輸出目錄中。例如:
`
copy "C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll" src-cliRelease
`
(這是一個範例!請檢查以確保你正在執行哪個版本,並執行適合你已安裝版本的指令。)
一旦檔案被複製,重新執行最後一個msbuild.exe命令以產生NSIS安裝包:
`
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
`
進階用戶:
請注意,cmake指令的輸出是一個普通的Visual Studio解決方案文件,Darknet.sln。如果你是軟體開發人員,經常使用Visual Studio GUI而不是msbuild.exe來建置項目,你可以忽略命令列,並在Visual Studio中載入Darknet專案。
你現在應該擁有這個你可以運行的檔案:C:srcDarknetbuildsrc-cliReleasedarknet.exe。執行以下命令進行測試:C:srcDarknetbuildsrc-cliReleasedarknet.exe version。
若要正確安裝Darknet,程式庫、包含檔案和必要的DLLs,請執行在最後一步建置的NSIS安裝精靈。請參閱建置目錄中的檔案darknet-VERSION.exe。例如:
`
darknet-2.0.31-win64.exe
`
安裝NSIS安裝包將:
建立一個名為Darknet的目錄,例如C:Program FilesDarknet。
安裝CLI應用程序,darknet.exe和其他範例應用程式。
安裝所需的第三方.dll文件,例如來自OpenCV的文件。
安裝必要的Darknet .dll、.lib和.h文件,以便從另一個應用程式使用darknet.dll。
安裝模板.cfg檔。
現在你完成了!一旦安裝精靈完成,Darknet將安裝到C:Program FilesDarknet。執行以下命令進行測試:C:Program FilesDarknetbindarknet.exe version。
如果你沒有C:/Program Files/darknet/bin/darknet.exe,這表示你沒有安裝它,你只是建置了它!確保你按照上一步中描述的那樣,瀏覽NSIS安裝精靈的每個面板。
Using Darknet
CLI
以下不是Darknet支援的所有命令的完整列表。
除了Darknet CLI之外,還要注意DarkHelp專案CLI,它提供了Darknet/YOLO的替代CLI。 DarkHelp CLI還具有一些在Darknet中無法直接取得的進階功能。你可以將Darknet CLI和DarkHelp CLI一起使用,它們並不互相排斥。
對於下面顯示的大多數指令,你需要使用對應的.names和.cfg檔的.weights檔。你可以訓練自己的網路(強烈建議!),或從網路上下載別人已經訓練好的並免費提供的神經網路。預訓練資料集的例子包括:
LEGO Gears(在影像中尋找物體)
Rolodex(在圖像中尋找文字)
MSCOCO(標準的80類目標偵測)
要運行的命令包括:
列出一些可以運行的命令和選項:
`
darknet help
`
檢查版本:
`
darknet version
`
使用影像進行預測:
`
V2: darknet detector test cars.data cars.cfg cars_best.weights image1.jpg
V3: darknet02displayannotatedimages cars.cfg image1.jpg
DarkHelp: DarkHelp cars.cfg cars.cfg cars_best.weights image1.jpg
`
輸出座標:
`
V2: darknet detector test animals.data animals.cfg animalsbest.weights -extoutput dog.jpg
V3: darknet01inference_images animals dog.jpg
DarkHelp: DarkHelp --json animals.cfg animals.names animals_best.weights dog.jpg
`
使用影片:
`
V2: darknet detector demo animals.data animals.cfg animalsbest.weights -extoutput test.mp4
V3: darknet03display_videos animals.cfg test.mp4
DarkHelp: DarkHelp animals.cfg animals.names animals_best.weights test.mp4
`
從網路攝影機讀取:
`
V2: darknet detector demo animals.data animals.cfg animals_best.weights -c 0
V3: darknet08display_webcam animals
`
將結果儲存到影片:
`
V2: darknet detector demo animals.data animals.cfg animalsbest.weights test.mp4 -outfilename res.avi
V3: darknet05processvideosmultithreaded animals.cfg animals.names animals_best.weights test.mp4
DarkHelp: DarkHelp animals.cfg animals.names animals_best.weights test.mp4
`
JSON:
`
V2: darknet detector demo animals.data animals.cfg animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3: darknet06imagestojson animals image1.jpg
DarkHelp: DarkHelp --json animals.names animals.cfg animals_best.weights image1.jpg
`
在特定GPU上運行:
`
V2: darknet detector demo animals.data animals.cfg animals_best.weights -i 1 test.mp4
`
檢查神經網路的準確性:
`
darknet detector map driving.data driving.cfg driving_best.weights ...
Id Name AvgPrecision TP FN FP TN Accuracy ErrorRate Precision Recall Specificity FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ----------- ------------
0 vehicle 91.2495 32648 3903 5826 65129 0.9095 0.0905 0.8486 0.8932 0.9179 0.0821
1 motorcycle 80.4499 2936 513 569 5393 0.8850 0.1150 0.8377 0.8513 0.9046 0.0954
2 bicycle 89.0912 570 124 104 3548 0.9475 0.0525 0.8457 0.8213 0.9715 0.0285
3 person 76.7937 7072 1727 2574 27523 0.8894 0.1106 0.7332 0.8037 0.9145 0.0855
4 many vehicles 64.3089 1068 509 733 11288 0.9087 0.0913 0.5930 0.6772 0.9390 0.0610
5 green light 86.8118 1969 239 510 4116 0.8904 0.1096 0.7943 0.8918 0.8898 0.1102
6 yellow 光 82.0390 126 38 30 1239 0.9525 0.0475 0.8077 0.7683 0.9764 0.0236
7 red light 94.1033 3449 217 451 4643 0.9237 0.0763 0.8844 0.9408 0.9115 0.0885
`
檢查準確度mAP@IoU=75:
`
darknet detector map animals.data animals.cfg animalsbest.weights -iouthresh 0.75
`
重新計算錨點最好在DarkMark中完成,因為它將連續運行100次,並從計算出的所有錨點中選擇最佳錨點。但如果你想在Darknet中運行舊版本:
`
darknet detector calcanchors animals.data -numof_clusters 6 -width 320 -height 256
`
訓練新網路:
`
darknet detector -map -dont_show train animals.data animals.cfg (also see the training section below)
`
Training
快速連結到Darknet/YOLO FAQ的相關部分:
* 如何設定我的檔案和目錄?
* 我應該使用哪個設定檔?
* 訓練自己的網路時,我該使用什麼指令?
使用DarkMark來創建所有必要的Darknet文件,這是註釋和訓練的最簡單方法。這絕對是訓練新神經網路的推薦方法。
如果你想手動設定各種文件來訓練自訂網路:
1. 建立一個新資料夾,用於儲存檔案。在本例中,將建立一個神經網路來偵測動物,因此將建立以下目錄:~/nn/animals/。
2. 複製你想要用來當模板的Darknet設定檔之一。例如,請參閱cfg/yolov4-tiny.cfg。將它放在你創建的資料夾中。在本例中,我們現在有了~/nn/animals/animals.cfg。
3. 在你放置設定檔的同一個資料夾中,建立一個animals.names文字檔。在本例中,我們現在有了~/nn/animals/animals.names。
4. 使用文字編輯器編輯animals.names檔案。列出你想要使用的類別。你每行需要有且僅有一個條目,沒有空白行,也沒有註解。在本例中,.names檔案將包含恰好4行:
`
dog
cat
鳥
horse
`
5. 在同一個資料夾中建立一個animals.data文字檔。在本例中,.data檔案將包含:
`
classes = 4
train = /home/username/nn/animals/animals_train.txt
valid = /home/username/nn/animals/animals_valid.txt
names = /home/username/nn/animals/animals.names
backup = /home/username/nn/animals
`
6. 建立一個資料夾,用於儲存你的圖像和註解。例如,這可以是~/nn/animals/dataset。每個圖像都需要一個相應的.txt文件,用於描述該圖像的註釋。 .txt註解文件的格式非常具體。你不能手動建立這些文件,因為每個註釋都需要包含註釋的確切座標。請參閱DarkMark或其他類似軟體來註釋你的圖像。 YOLO註釋格式在Darknet/YOLO FAQ中進行了描述。
7. 建立在.data檔案中命名的"train"和"valid"文字檔。這兩個文字檔案需要分別列出Darknet必須用來訓練和驗證(在計算mAP%時)的所有圖像。每行恰好有一個圖像。路徑和檔案名稱可以是相對的或絕對的。
8. 使用文字編輯器修改你的.cfg檔。
* 確保batch=64。
* 注意subdivisions。根據網路維度和你的GPU上的可用記憶體大小,你可能需要增加subdivisions。要使用的最佳值是1,所以先從這個值開始。如果1對你不起作用,請參閱Darknet/YOLO FAQ。
注意maxbatches=....。在開始時,一個好的值是類別數量的2000倍。在本例中,我們有4種動物,所以4 2000 = 8000。這意味著我們將使用maxbatches=8000。
* 注意steps=....。這應該設定為maxbatches的80%和90%。在本例中,我們將使用steps=6400,7200,因為maxbatches設定為8000。
* 注意width=...和height=....。這些是網路維度。 Darknet/YOLO FAQ說明如何計算要使用的最佳尺寸。
* 搜尋所有包含行classes=...的實例,並使用你的.names檔案中的類別數量對其進行修改。在本例中,我們將使用classes=4。
在每個[yolo]部分之前的[convolutional]部分中,搜尋所有包含行filters=...的實例。要使用的值是(類別數量+ 5) 3。這意味著在本例中,(4 + 5)* 3 = 27。所以我們將在適當的行中使用filters=27。
9. 開始訓練!運行以下命令:
`
cd ~/nn/animals/
darknet detector -map -dont_show train animals.data animals.cfg
`
請耐心等待。最佳權重將儲存為animals_best.weights。透過查看chart.png文件,可以觀察訓練的進度。有關在訓練新網路時可能要使用的其他參數,請參閱Darknet/YOLO FAQ。
如果你想在訓練期間看到更多細節,請加入--verbose參數。例如:
`
darknet detector -map -dont_show --verbose train animals.data animals.cfg
`
Other Tools and Links
要管理你的Darknet/YOLO項目,註釋圖像,驗證你的註釋,並產生使用Darknet進行訓練的必要文件,請參閱DarkMark。
要獲得一個健壯的Darknet替代CLI,以使用圖像平鋪,用於視頻中的目標跟踪,或用於可以輕鬆用於商業應用程序的健壯的C++ API,請參閱DarkHelp。
請查看Darknet/YOLO FAQ,看看它是否可以幫助回答你的問題。
請觀看Stéphane YouTube頻道上的許多教學和範例影片。
如果你有支援問題,或是想跟其他Darknet/YOLO用戶聊天,請加入Darknet/YOLO Discord伺服器。
Roadmap
最後更新時間:2024-10-30
已完成
將訓練期間使用的qsort()替換為std::sort()(其他一些不常見的仍然存在)
刪除check_mistakes、getchar()和system()
將Darknet轉換為使用C++編譯器(在Linux上使用g++,在Windows上使用VisualStudio)
修復Windows建置
修復Python支持
建置darknet庫
重新啟用預測中的標籤("alphabet"代碼)
重新啟用CUDA/GPU程式碼
重新啟用CUDNN
重新啟用CUDNN half
不要硬編碼CUDA架構
更好的CUDA版本信息
重新啟用AVX
刪除舊的解決方案和Makefile
使OpenCV非可選
刪除對舊的pthread函式庫的依賴
刪除STB
重寫CMakeLists.txt以使用新的CUDA檢測
刪除舊的"alphabet"程式碼,並刪除data/labels中的700多張影像
建構原始碼之外
具有更好的版本號輸出
與訓練相關的效能最佳化(正在進行的任務)
與推理相關的效能最佳化(正在進行的任務)
盡可能使用傳值引用
清理.hpp文件
重寫darknet.h
不要將cv::Mat轉換為void,而應該將它用作適當的C++對象
修復或保持內部影像結構的使用方式一致
修復ARM-based Jetson設備的構建
* 由於NVIDIA不再支援原始的Jetson設備,因此它們不太可能被修復(沒有C++17編譯器)
* 新的Jetson Orin設備正在運行
修復V3中的Python API
需要更好的Python支援(有Python開發人員想幫忙解決這個問題嗎?)
短期目標
將printf()替換為std::cout(正在進行中)
查看舊的zed攝影機支持
更好、更一致的命令列解析(正在進行中)
中期目標
刪除所有char程式碼,並用std::string替換
不要隱藏警告,清理編譯器警告(正在進行中)
更好地使用cv::Mat,而不是C中的自訂影像結構(正在進行中)
將舊的清單功能替換為std::vector或std::list
修復對1通道灰階影像的支持
添加對N通道影像的支持,其中N>3(例如,具有附加深度或熱通道的影像)
正在進行的程式碼清理(正在進行中)
長期目標
修復所有GPU的CUDA/CUDNN問題
重寫CUDA+cuDNN程式碼
考慮添加對非NVIDIA GPU的支持
旋轉邊界框,或某種形式的"角度"支持
關鍵點/骨架
熱圖(進行中)
分割
範例中,使用了Markdown的標題標籤元素,並對一些內容進行了邏輯補充、潤飾、排版調整。如加中文序號、阿拉伯數位序列化、換行等排版,讓資訊展現更整齊,用戶查閱更方便。
希望本文能對大家有幫助!