Video2X: 고품질 비디오 업스케일링 및 프레임 보간 프레임워크
소스 코드 편집기
중요한
버전 4와 5는 단종(EOL) 상태에 도달했습니다. 제한된 개발 리소스로 인해 6 미만 버전과 관련된 문제는 더 이상 해결되지 않습니다.
버전 6.0.0
Windows 설치 프로그램 다운로드
간단히 말해서, 버전 6.0.0은 Video2X 프로젝트를 C/C++로 완전히 재작성한 것입니다. 더 빠르고 효율적인 아키텍처, 크로스 플랫폼 지원, 크게 향상된 출력 품질, Windows GUI 및 설치 프로그램에서 쉽게 설정할 수 있는 새로운 기능을 제공합니다. .
버전 6.0.0은 C/C++로 구현된 프로젝트의 완전한 재작성이며 다음 기능을 포함합니다.
1. 더욱 빨라진 아키텍처: 멀티스레딩과 GPU 가속을 활용함으로써 Video2X는 이제 이전보다 훨씬 빨라졌습니다.
2. 크로스 플랫폼 지원: Video2X는 이제 Windows, Linux 및 macOS에서 실행됩니다.
3. 향상된 출력 품질: Video2X는 이제 특히 고해상도 비디오에 대해 더 높은 업스케일링 품질을 제공합니다.
4. 새로운 GUI: Video2X는 이제 설정 및 사용 프로세스를 단순화하는 사용자 친화적인 GUI를 제공합니다.
5. 새로운 설치 프로그램: 이제 Video2X는 Windows에 소프트웨어를 빠르고 쉽게 설치할 수 있도록 도와주는 사용하기 쉬운 설치 프로그램을 제공합니다.
RealCUGAN 및 RIFE를 사용한 프레임 보간에 대한 지원이 곧 제공될 예정입니다.
윈도우 버전 다운로드
릴리스 페이지에서 최신 Windows 버전을 다운로드할 수 있습니다. 기본적인 GUI 사용법은 GUI 위키 페이지를 참조하세요. GitHub에서 직접 다운로드할 수 없는 경우 미러를 사용해 보세요. GUI는 현재 다음 언어를 지원합니다.
1. 영어
2. 중국어 간체
3. 중국어 번체
4. 일본어
5. 한국어
6. 프랑스어
7. 독일어
8. 이탈리아어
9. 스페인어
10. 포르투갈어
11. 러시아어
리눅스에 설치
video2x-git 패키지를 사용하여 Arch Linux에 Video2X를 설치하거나 릴리스 페이지에서 미리 컴파일된 바이너리를 다운로드할 수 있습니다. 소스에서 빌드하려면 PKGBUILD 파일에서 필요한 패키지 및 명령에 대한 개요를 참조하세요. 소스에서 프로그램을 컴파일하지 않으려면 아래 컨테이너 이미지 사용을 고려하세요.
컨테이너 이미지
Video2X 컨테이너 이미지는 Linux 및 macOS에 쉽게 배포할 수 있도록 GitHub 컨테이너 레지스트리에서 사용할 수 있습니다. Docker/Podman이 설치되어 있는 경우 단 하나의 명령으로 비디오 증폭을 시작할 수 있습니다. Video2X의 Docker 이미지를 사용하는 방법에 대한 자세한 내용은 설명서를 참조하세요.
Google Colab(구식: 5.0.0-beta7)
강력한 GPU가 없다면 Google Colab에서 Video2X를 무료로 사용할 수 있습니다. 세션당 최대 12시간 동안 Google 서버의 강력한 GPU(NVIDIA T4, L4 또는 A100)를 무료로 빌릴 수 있습니다. 무료 리소스를 공정하게 사용하시고, 지속적인 세션을 생성하지 말고 연중무휴 Zoom을 실행하시기 바랍니다. 이로 인해 귀하가 금지될 수 있습니다. 더 나은 GPU를 사용하고 런타임을 늘리고 싶다면 Colab Pro/Pro+를 구입하세요. 사용 지침은 Colab 노트북에 포함되어 있습니다.
텔레그램 토론 그룹
Telegram 토론 그룹에 참여하여 Video2X에 대해 궁금한 점이 있으면 개발자와 직접 채팅하거나 초해상도 기술과 Video2X의 미래에 대해 토론하세요.
문서
Video2X에 대한 문서는 이 저장소의 Wiki 페이지에서 호스팅됩니다. 여기에는 GUI, CLI, 컨테이너 이미지, 라이브러리 등을 사용하는 방법에 대한 포괄적인 지침이 포함되어 있습니다. Wiki는 커뮤니티에서 편집할 수 있도록 공개되어 있으므로 귀하는 오류를 수정하거나 문서에 새 콘텐츠를 추가할 수도 있습니다.
소개하다
Video2X는 세 가지 주요 구성 요소를 중심으로 구축된 기계 학습 기반 비디오 업스케일링 및 프레임 보간 프레임워크입니다.
1. 모델: Video2X는 다양한 고급 딥 러닝 모델을 사용하여 업스케일링 및 프레임 보간을 수행합니다.
2. 엔진: Video2X 엔진은 비디오 데이터 처리, 모델 추론 수행 및 출력 비디오 생성을 담당합니다.
3. 인터페이스: Video2X는 프레임워크를 쉽게 사용할 수 있도록 GUI, CLI, 컨테이너 이미지 등 다양한 인터페이스를 제공합니다.
비디오 데모
확대: 센과 치히로의 행방불명 영화 예고편
표준 테스트 스니펫
다음 스니펫을 사용하여 설정이 제대로 작동하는지 테스트할 수 있습니다. 이는 성능 벤치마크를 실행하기 위한 표준 조각이기도 합니다.
원본 클립은 애니메이션 "사쿠라장의 애완 소녀"에서 가져온 것입니다.
본 영상의 저작권은 (주)아미노펄스에 있습니다.
특허
이 프로젝트는 GNU AGPL 버전 3 라이센스에 따라 릴리스됩니다.
저작권 (C) 2018-2024 K4YT3X 및 기여자.
이 프로젝트에는 다음 프로젝트가 포함되거나 이에 따라 달라집니다.
1. 오픈CV: https://github.com/opencv/opencv
2. waifu2x-caffe: https://github.com/nagadomi/waifu2x-caffe
3. 실제 ESRGAN: https://github.com/xinntao/Real-ESRGAN
4. BasicSR: https://github.com/xinntao/BasicSR
5. GFPGAN: https://github.com/TencentARC/GFPGAN
6. 라이프: https://github.com/hzwer/arXiv2021-RIFE
7. Anime4K: https://github.com/bloc97/Anime4K
NOTICE 파일에서 더 많은 라이선스 정보를 확인할 수 있습니다.
특별한 감사
이 프로젝트에 큰 기여를 해주신 다음 개인들에게 특별한 감사를 드립니다(알파벳순):
1. K4YT3X: 프로젝트 생성자
2. 기여자: 이 프로젝트에 기여해주신 모든 분들께 감사드립니다.
예를 들어:
Apache-2.0 라이센스
목차
다크넷 개체 감지 프레임워크 및 YOLO
1. 종이
2. 일반정보
3. 다크넷 버전
4. MSCOCO 사전 훈련 가중치
5. 빌드
1. 구글 코랩
2. 리눅스 CMake 방법
3. 윈도우 CMake 방법
6. 다크넷 사용
1. CLI
2. 훈련
7. 기타 도구 및 링크
8. 로드맵
1. 단기 목표
2. 중기 목표
3. 장기 목표
다크넷 개체 감지 프레임워크 및 YOLO
Darknet은 C, C++ 및 CUDA로 작성된 오픈 소스 신경망 프레임워크입니다.
YOLO(You Only Look Once)는 Darknet 프레임워크에서 실행되는 최첨단 실시간 개체 탐지 시스템입니다.
Hank.ai가 Darknet/YOLO 커뮤니티를 어떻게 돕는지 읽어보세요.
Darknet V3 “Jazz” 발표
다크넷/YOLO 웹사이트를 확인하세요
다크넷/YOLO FAQ를 읽어보세요.
Darknet/YOLO Discord 서버에 가입하세요
종이
1. YOLOv7 논문
2. 스케일링된 YOLOv4 용지
3. YOLOv4 논문
4. YOLOv3 논문
일반 정보
Darknet/YOLO 프레임워크는 다른 프레임워크 및 YOLO 버전보다 계속해서 더 빠르고 정확합니다.
프레임워크는 완전 무료이며 오픈 소스입니다. 라이선스나 비용 없이 Darknet/YOLO를 기존 프로젝트 및 제품(상용 제품 포함)에 통합할 수 있습니다.
2024년 10월에 출시된 Darknet V3("Jazz")는 NVIDIA RTX 3090 GPU를 사용할 때 최대 1000FPS에서 LEGO 데이터 세트 비디오를 정확하게 실행할 수 있습니다. 즉, 각 비디오 프레임은 1밀리초 이하가 소요됩니다. Darknet/에서 내부적으로 읽고, 크기를 조정하고, 처리합니다. 욜로.
도움이 필요하거나 Darknet/YOLO에 대해 토론하고 싶다면 Darknet/YOLO Discord 서버에 가입하세요: https://discord.gg/zSq8rtW
Darknet/YOLO의 CPU 버전은 Raspberry Pi, 클라우드 및 Colab 서버, 데스크톱, 노트북 및 고급 교육 장비와 같은 간단한 장치에서 실행될 수 있습니다. Darknet/YOLO의 GPU 버전에는 NVIDIA의 CUDA 호환 GPU가 필요합니다.
Darknet/YOLO는 Linux, Windows 및 Mac에서 실행되는 것으로 알려져 있습니다. 아래 빌드 지침을 참조하세요.
다크넷 버전
Joseph Redmon이 2013~2017년에 작성한 원본 Darknet 도구에는 버전 번호가 없습니다. 우리는 이것이 버전 0.x라고 생각합니다.
2017년부터 2021년까지 Alexey Bochkovskiy가 관리하는 다음 인기 Darknet 라이브러리에도 버전 번호가 없습니다. 우리는 이것이 버전 1.x라고 생각합니다.
Hank.ai가 후원하고 2023년부터 Stéphane Charette가 관리하는 Darknet 라이브러리는 버전 명령을 갖춘 최초의 라이브러리입니다. 2023년부터 2024년 말까지 버전 2.x "OAK"로 돌아갑니다.
목표는 기존 기능을 최대한 손상시키지 않으면서 코드 베이스에 익숙해지는 것입니다.
1. 이제 CMake를 사용하여 Windows 및 Linux에서 빌드할 수 있도록 빌드 단계를 다시 작성했습니다.
2. C++ 컴파일러를 사용하도록 코드 베이스를 변환합니다.
3. 훈련 중 Chart.png가 향상되었습니다.
4. 주로 네트워크 훈련에 필요한 시간을 줄이는 것과 관련된 버그 수정 및 성능 관련 최적화.
코드 베이스의 마지막 분기는 v2 분기의 버전 2.1입니다.
다음 개발 단계는 2024년 중반에 시작되어 2024년 10월에 출시될 예정입니다. 버전 명령은 이제 3.x "JAZZ"를 반환합니다.
이러한 명령 중 하나를 실행해야 하는 경우 언제든지 이전 v2 분기를 체크아웃할 수 있습니다. 누락된 명령을 다시 추가하는 방법을 조사할 수 있도록 알려주시기 바랍니다.
1. 오래되고 유지 관리되지 않는 많은 명령을 제거했습니다.
2. 훈련 및 추론 중에 많은 성능 최적화를 수행했습니다.
3. 기존 C API를 수정했습니다. 원본 Darknet API를 사용하는 애플리케이션은 약간의 수정이 필요합니다: https://darknetcv.ai/api/api.html
4. 새로운 Darknet V3 C 및 C++ API: https://darknetcv.ai/api/api.html
5. src-examples의 새로운 애플리케이션 및 샘플 코드: https://darknetcv.ai/api/files.html
MSCOCO 사전 훈련된 가중치
편의를 위해 YOLO의 여러 인기 버전이 MSCOCO 데이터세트에 대해 사전 훈련되었습니다. 데이터 세트에는 80개의 카테고리가 포함되어 있으며 텍스트 파일 cfg/coco.names에서 볼 수 있습니다.
LEGO Gears 및 Rolodex와 같이 Darknet/YOLO 테스트에 사용할 수 있는 몇 가지 더 간단한 데이터 세트와 사전 훈련된 가중치가 있습니다. 자세한 내용은 Darknet/YOLO FAQ를 참조하세요.
MSCOCO 사전 훈련된 가중치는 여러 다른 위치에서 다운로드할 수 있으며 이 저장소에서도 다운로드할 수도 있습니다.
1. YOLOv2, 2016년 11월
1. YOLOv2-작은
2.YOLOv2-전체
2. YOLOv3, 2018년 5월
1. YOLOv3-작은
2.YOLOv3-전체
3. YOLOv4, 2020년 5월
1.YOLOv4-작은
2. YOLOv4-전체
4. YOLOv7, 2022년 8월
1. YOLOv7-작은
2. YOLOv7-전체
MSCOCO 사전 훈련된 가중치는 데모 목적으로만 사용됩니다. MSCOCO에 해당하는 .cfg 및 .names 파일은 cfg 디렉터리에 있습니다. 예제 명령:
`배쉬
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights
darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
`
자신의 네트워크를 훈련해야 한다는 점에 유의하세요. MSCOCO는 일반적으로 모든 것이 제대로 작동하는지 확인하는 데 사용됩니다.
짓다
과거(2023년 이전)에 사용 가능한 다양한 빌드 방법이 통합 솔루션으로 병합되었습니다. Darknet에서는 C++17 이상, OpenCV 및 CMake를 사용하여 필요한 프로젝트 파일을 생성해야 합니다.
Darknet/YOLO를 구축, 설치, 실행하기 위해 C++를 알 필요는 없습니다. 마치 자동차를 운전하기 위해 정비공이 될 필요가 없는 것과 같습니다.
구글 코랩
Google Colab 지침은 Linux 지침과 동일합니다. 새로운 네트워크 훈련과 같은 특정 작업을 수행하는 방법을 보여주는 여러 Jupyter Notebook이 있습니다.
colab 하위 디렉터리에서 노트북을 확인하거나 아래 Linux 지침을 따르세요.
리눅스 CMake 방법
Linux용 Darknet 빌드 튜토리얼
선택 사항: 최신 NVIDIA GPU가 있는 경우 지금 CUDA 또는 CUDA+cuDNN을 설치할 수 있습니다. 설치된 경우 Darknet은 GPU를 사용하여 이미지(및 비디오) 처리를 가속화합니다.
CMake가 필요한 모든 파일을 다시 찾도록 하려면 Darknet 빌드 디렉터리에서 CMakeCache.txt 파일을 삭제해야 합니다.
다크넷을 재구축하는 것을 잊지 마세요.
Darknet은 그것 없이 실행될 수 있지만 사용자 정의 네트워크를 교육하려면 CUDA 또는 CUDA+cuDNN이 필요합니다.
CUDA를 다운로드하고 설치하려면 https://developer.nvidia.com/cuda-downloads를 방문하세요.
다운로드하려면 https://developer.nvidia.com/rdp/cudnn-download 또는 https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview를 방문하세요. cuDNN을 설치합니다.
CUDA를 설치한 후 nvcc 및 nvidia-smi를 실행할 수 있는지 확인하세요. PATH 변수를 수정해야 할 수도 있습니다.
나중에 CUDA 또는 CUDA+cuDNN을 설치했거나 최신 버전의 NVIDIA 소프트웨어로 업그레이드한 경우:
이 지침에서는 시스템이 Ubuntu 22.04를 실행하고 있다고 가정합니다(필수는 아닙니다!). 다른 배포판을 사용하는 경우 필요에 따라 조정하세요.
`배쉬
sudo apt-get 설치 빌드 필수 git libopencv-dev cmake
mkdir ~/srccd ~/src
자식 클론 https://github.com/hank-ai/darknet
CD 다크넷
mkdir 빌드
CD 빌드
cmake -DCMAKEBUILDTYPE=릴리스 ..
-j4 패키지 만들기
sudo dpkg -i darknet-VERSION.deb
`
이전 버전의 CMake를 사용하는 경우 위의 cmake 명령을 실행하려면 CMake를 업그레이드해야 합니다. Ubuntu에서 CMake를 업그레이드하려면 다음 명령을 사용하면 됩니다.
`배쉬
sudo apt-get purge cmake
sudo 스냅 설치 cmake --classic
`
bash를 명령 셸로 사용하는 경우 지금 셸을 다시 시작해야 합니다. 물고기를 사용하는 경우 즉시 새 경로를 선택해야 합니다.
고급 사용자:
DEB 파일 대신 RPM 설치 파일을 빌드하려면 CM_package.cmake에서 관련 줄을 참조하세요. make -j4 패키지를 실행하기 전에 다음 두 줄을 편집해야 합니다.
`배쉬
SET (CPACKGENERATOR "DEB")# SET (CPACKGENERATOR "RPM")
`
Centos 및 OpenSUSE와 같은 배포판의 경우 CM_package.cmake에서 이 두 줄을 다음으로 전환해야 합니다.
`배쉬
설정(CPACK_GENERATOR "DEB")
설정(CPACK_GENERATOR "RPM")
`
패키지를 설치하려면 배포가 완료된 후 배포판의 일반 패키지 관리자를 사용하십시오. 예를 들어 Ubuntu와 같은 Debian 기반 시스템에서는 다음과 같습니다.
`배쉬
sudo dpkg -i darknet-2.0.1-Linux.deb
`
.deb 패키지를 설치하면 다음 파일이 복사됩니다.
1. /usr/bin/darknet은 일반적인 Darknet 실행 파일입니다. CLI에서 darknet 버전을 실행하여 올바르게 설치되었는지 확인하세요.
2. /usr/include/darknet.h는 C, C++ 및 Python 개발자를 위한 Darknet API입니다.
3. /usr/include/darknet_version.h에는 개발자를 위한 버전 정보가 포함되어 있습니다.
4. /usr/lib/libdarknet.so는 C, C++ 및 Python 개발자가 링크할 수 있는 라이브러리입니다.
5. /opt/darknet/cfg/...는 모든 .cfg 템플릿이 저장되는 곳입니다.
이제 끝났습니다! Darknet은 /usr/bin/에 구축되어 설치됩니다. 테스트하려면 다음 명령을 실행하십시오: darknet version.
/usr/bin/darknet이 없다면 설치한 것이 아니라 그냥 구축한 것입니다! 위에서 설명한 대로 .deb 또는 .rpm 파일을 설치하십시오.
Windows CMake 메서드
이 지침에서는 Windows 11 22H2를 새로 설치했다고 가정합니다.
일반 cmd.exe 명령 프롬프트 창을 열고 다음 명령을 실행합니다.
`배쉬
Winget 설치 Git.Git
Winget 설치 Kitware.CMake
Winget 설치 nsis.nsis
Winget 설치 Microsoft.VisualStudio.2022.Community
`
이제 C++ 애플리케이션에 대한 지원을 포함하도록 Visual Studio 설치를 수정해야 합니다.
1. Windows 시작 메뉴를 클릭하고 Visual Studio 설치 관리자를 실행합니다.
2. 편집을 클릭합니다.
3. C++를 사용한 데스크톱 개발을 선택하세요.
4. 오른쪽 하단 모서리에 있는 편집을 클릭한 다음 예를 클릭합니다.
모든 것이 다운로드되어 설치되면 Windows 시작 메뉴를 다시 클릭하고 Visual Studio 2022용 개발자 명령 프롬프트를 선택합니다. PowerShell을 사용하여 이러한 단계를 수행하지 마세요. 문제가 발생할 수 있습니다!
고급 사용자:
개발자 명령 프롬프트를 실행하는 대신 일반 명령 프롬프트 또는 SSH를 사용하여 장치에 로그인하고 "Program FilesMicrosoft Visual Studio2022CommunityCommon7ToolsVsDevCmd.bat"를 수동으로 실행할 수 있습니다.
위에서 설명한 대로(PowerShell이 아님) 개발자 명령 프롬프트가 실행되면 다음 명령을 실행하여 Microsoft VCPKG를 설치합니다. 그러면 OpenCV를 빌드하는 데 사용됩니다.
`배쉬
질병통제예방센터:
mkdir c:srccd c:src
자식 클론 https://github.com/microsoft/vcpkg
CD vcpkg
bootstrap-vcpkg.bat
.vcpkg.exe 통합 설치
.vcpkg.exe 통합 powershell.vcpkg.exe install opencv[contrib,dnn,freetype,jpeg,openmp,png,webp,world]:x64-windows
`
이 마지막 단계를 실행하는 데 시간이 오래 걸릴 수 있으므로 기다려 주시기 바랍니다. 많은 것을 다운로드하고 구축해야 합니다.
고급 사용자:
OpenCV를 빌드할 때 다른 많은 선택적 모듈을 추가해야 할 수도 있습니다. 전체 목록을 보려면 .vcpkg.exe 검색 opencv를 실행하세요.
선택 사항: 최신 NVIDIA GPU가 있는 경우 지금 CUDA 또는 CUDA+cuDNN을 설치할 수 있습니다. 설치된 경우 Darknet은 GPU를 사용하여 이미지(및 비디오) 처리를 가속화합니다.
CMake가 필요한 모든 파일을 다시 찾도록 하려면 Darknet 빌드 디렉터리에서 CMakeCache.txt 파일을 삭제해야 합니다.
다크넷을 재구축하는 것을 잊지 마세요.
Darknet은 그것 없이 실행될 수 있지만 사용자 정의 네트워크를 교육하려면 CUDA 또는 CUDA+cuDNN이 필요합니다.
CUDA를 다운로드하고 설치하려면 https://developer.nvidia.com/cuda-downloads를 방문하세요.
cuDNN을 다운로드하고 설치하려면 https://developer.nvidia.com/rdp/cudnn-download 또는 https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows를 방문하세요.
CUDA를 설치한 후 nvcc.exe 및 nvidia-smi.exe를 실행할 수 있는지 확인하세요. PATH 변수를 수정해야 할 수도 있습니다.
cuDNN을 다운로드한 후 bin, include 및 lib 디렉터리의 압축을 풀고 C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/[version]/에 복사합니다. 일부 파일을 덮어써야 할 수도 있습니다.
나중에 CUDA 또는 CUDA+cuDNN을 설치했거나 최신 버전의 NVIDIA 소프트웨어로 업그레이드한 경우:
CUDA는 Visual Studio 이후에 설치해야 합니다. Visual Studio를 업그레이드하는 경우 CUDA를 다시 설치해야 합니다.
이전 단계가 모두 성공적으로 완료되면 Darknet을 복제하고 구축해야 합니다. 또한 이 단계에서는 OpenCV 및 기타 종속성을 찾을 수 있도록 CMake에 vcpkg의 위치를 알려야 합니다.
`배쉬
CD C:src
자식 클론 https://github.com/hank-ai/darknet.git
CD 다크넷
mkdir 빌드
CD 빌드
cmake -DCMAKEBUILDTYPE=릴리스 -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake ..
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
msbuild.exe /property:Platform=x64;구성=PACKAGE.vcxproj 릴리스
`
CUDA 또는 cuDNN DLL(예: cublas64_12.dll) 누락에 대한 오류가 표시되면 CUDA .dll 파일을 Darknet.exe와 동일한 출력 디렉터리에 수동으로 복사하세요. 예를 들어:
`배쉬
"C:프로그램 파일NVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll" src-cliRelease 복사
`
(예제입니다. 해당 버전이 실행되고 있는지 확인하신 후, 설치한 버전에 맞는 명령어를 실행해주세요.)
파일을 복사한 후 마지막 msbuild.exe 명령을 다시 실행하여 NSIS 설치 패키지를 생성합니다.
`배쉬
msbuild.exe /property:Platform=x64;구성=PACKAGE.vcxproj 릴리스
`
고급 사용자:
cmake 명령의 출력은 일반 Visual Studio 솔루션 파일 Darknet.sln입니다. msbuild.exe 대신 Visual Studio GUI를 자주 사용하여 프로젝트를 빌드하는 소프트웨어 개발자라면 명령줄을 무시하고 Visual Studio에서 Darknet 프로젝트를 로드할 수 있습니다.
이제 C:srcDarknetbuildsrc-cliReleasedarknet.exe 파일을 실행할 준비가 되었습니다. 다음 명령을 실행하여 C:srcDarknetbuildsrc-cliReleasedarknet.exe 버전을 테스트합니다.
Darknet, 라이브러리, 포함 파일 및 필요한 DLL을 올바르게 설치하려면 이전 단계에서 구축한 NSIS 설치 마법사를 실행하세요. 빌드 디렉터리에서 darknet-VERSION.exe 파일을 확인하세요. 예를 들어:
`배쉬
darknet-2.0.31-win64.exe
`
NSIS 설치 패키지를 설치하면 다음이 수행됩니다.
1. Darknet이라는 디렉터리를 만듭니다(예: C:Program FilesDarknet).
2. CLI 애플리케이션 darknet.exe 및 기타 샘플 애플리케이션을 설치합니다.
3. OpenCV의 파일과 같은 필수 타사 .dll 파일을 설치합니다.
4. 다른 응용 프로그램에서 darknet.dll을 사용하려면 필요한 Darknet .dll, .lib 및 .h 파일을 설치하십시오.
5. 템플릿 .cfg 파일을 설치합니다.
이제 끝났습니다! 설치 마법사가 완료되면 C:Program FilesDarknet에 Darknet이 설치됩니다. 다음 명령을 실행하여 C:Program FilesDarknetbindarknet.exe 버전을 테스트합니다.
C:/Program Files/darknet/bin/darknet.exe가 없다면 설치한 것이 아니라 그냥 빌드한 것입니다! 이전 단계에서 설명한 대로 NSIS 설치 마법사의 각 패널을 완료했는지 확인하세요.
다크넷 사용
CLI
다음은 Darknet에서 지원하는 모든 명령의 전체 목록이 아닙니다.
Darknet CLI 외에도 Darknet/YOLO에 대한 대체 CLI를 제공하는 DarkHelp 프로젝트 CLI도 참고하세요. DarkHelp CLI에는 Darknet에는 없는 몇 가지 향상된 기능도 있습니다. Darknet CLI와 DarkHelp CLI를 함께 사용할 수 있으며 상호 배타적이지 않습니다.
아래 표시된 대부분의 명령에는 해당 .names 및 .cfg 파일이 포함된 .weights 파일이 필요합니다. 자신만의 네트워크를 훈련시키거나(강력히 권장됩니다!) 다른 사람이 훈련시키고 인터넷에서 무료로 사용할 수 있는 신경망을 다운로드할 수 있습니다. 사전 학습 데이터 세트의 예는 다음과 같습니다.
1. LEGO Gears(이미지에서 개체 찾기)
2. Rolodex (이미지에서 텍스트 찾기)
3. MSCOCO (표준 80 카테고리 표적 탐지)
실행할 명령은 다음과 같습니다.
실행할 수 있는 몇 가지 가능한 명령과 옵션을 나열합니다.
`배쉬
다크넷 도움말
`
버전 확인:
`배쉬
다크넷 버전
`
이미지를 사용하여 예측하세요.
`배쉬
V2
다크넷 감지기 테스트 cars.data cars.cfg cars_best.weights image1.jpg
V3
darknet02displayannotatedimages cars.cfg image1.jpg
다크도움말
DarkHelp cars.cfg cars.cfg cars_best.weights image1.jpg
`
출력 좌표:
`배쉬
V2
다크넷 탐지기 테스트 Animals.data Animals.cfg Animalsbest.weights -extoutput dog.jpg
V3
darknet01inference_images 동물 개.jpg
다크도움말
DarkHelp --json Animals.cfg Animals.names Animals_best.weights dog.jpg
`
영상 처리:
`배쉬
V2
다크넷 탐지기 데모 Animals.data Animals.cfg Animalsbest.weights -extoutput test.mp4
V3
darknet03display_videos 동물.cfg 테스트.mp4
다크도움말
DarkHelp Animals.cfg Animals.names Animals_best.weights test.mp4
`
웹캠에서 읽기:
`배쉬
V2
다크넷 탐지기 데모 Animals.data Animals.cfg Animals_best.weights -c 0
V3
darknet08display_webcam 동물
`
결과를 비디오로 저장:
`배쉬
V2
다크넷 탐지기 데모 Animals.data Animals.cfg Animalsbest.weights test.mp4 -outfilename res.avi
V3
darknet05프로세스비디오멀티스레드 동물.cfg 동물.이름 동물_최고.가중치 테스트.mp4
다크헬프
DarkHelp Animals.cfg Animals.names Animals_best.weights test.mp4
`
JSON:
`배쉬
V2
다크넷 탐지기 데모 Animals.data Animals.cfg Animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3
darknet06imagestojson 동물 image1.jpg
다크도움말
DarkHelp --json Animals.names Animals.cfg Animals_best.weights image1.jpg
`
특정 GPU에서 실행:
`배쉬
V2
다크넷 탐지기 데모 Animals.data Animals.cfg Animals_best.weights -i 1 test.mp4
`
신경망의 정확성을 확인하려면:
`배쉬
다크넷 탐지기 지도 Driving.data Driving.cfg Driving_best.weights ...
ID 이름 AvgPrecision TP FN FP TN 정확도 ErrorRate 정밀도 재현율 특이성 FalsePosRate
-- ---- ------------ ------ ------ ------ ------ -------- --------- --------- ------ ---------- ----------
0대 91.2495 32648 3903 5826 65129 0.9095 0.0905 0.8486 0.8932 0.9179 0.0821
오토바이 1대 80.4499 2936 513 569 5393 0.8850 0.1150 0.8377 0.8513 0.9046 0.0954
자전거 2대 89.0912 570 124 104 3548 0.9475 0.0525 0.8457 0.8213 0.9715 0.0285
3인 76.7937 7072 1727 2574 27523 0.8894 0.1106 0.7332 0.8037 0.9145 0.0855
4대 다수 64.3089 1068 509 733 11288 0.9087 0.0913 0.5930 0.6772 0.9390 0.0610
5 녹색등 86.8118 1969 239 510 4116 0.8904 0.1096 0.7943 0.8918 0.8898 0.1102
6 황색등 82.0390 126 38 30 1239 0.9525 0.0475 0.8077 0.7683 0.9764 0.0236
7 빨간불 94.1033 3449 217 451 4643 0.9237 0.0763 0.8844 0.9408 0.9115 0.0885
`
정확도 mAP@IoU=75를 확인하려면:
`배쉬
다크넷 탐지기 맵 Animals.data Animals.cfg Animalsbest.weights -iouthresh 0.75
`
앵커 포인트 재계산은 DarkMark에서 가장 잘 수행됩니다. DarkMark는 연속으로 100번 실행되고 계산된 모든 앵커 포인트 중에서 가장 좋은 앵커 포인트를 선택하기 때문입니다. 그러나 Darknet에서 이전 버전을 실행하려는 경우:
`배쉬
다크넷 탐지기 calcanchors Animals.data -numof_clusters 6 -너비 320 -높이 256
`
새 네트워크 훈련:
`배쉬
다크넷 탐지기 -map -dont_show 기차 동물.데이터 동물.cfg
`
(아래 교육 섹션도 참조하세요)
기차
Darknet/YOLO FAQ의 관련 섹션에 대한 빠른 링크:
1. 파일과 디렉터리를 어떻게 설정합니까?
2. 어떤 프로필을 사용해야 합니까?
3. 네트워크를 훈련할 때 어떤 명령을 사용해야 합니까?
DarkMark를 사용하여 필요한 모든 Darknet 파일, 주석 및 교육을 생성하는 가장 쉬운 방법입니다. 이는 확실히 새로운 신경망을 훈련하는 데 권장되는 방법입니다.
사용자 정의 네트워크를 훈련시키기 위해 다양한 파일을 수동으로 설정하려면 다음을 수행하십시오.
1. 파일을 저장할 새 폴더를 만듭니다. 이 예에서는 동물을 감지하기 위한 신경망을 생성하므로 ~/nn/animals/ 디렉터리가 생성됩니다.
2. 템플릿으로 사용하려는 Darknet 구성 파일 중 하나를 복사합니다. 예를 들어 cfg/yolov4-tiny.cfg를 참조하세요. 생성한 폴더에 넣어주세요. 이 예에서는 이제 ~/nn/animals/animals.cfg가 있습니다.
3. 구성 파일을 저장한 폴더에 Animals.names 텍스트 파일을 만듭니다. 이 예에서는 이제 ~/nn/animals/animals.names가 있습니다.
4. 텍스트 편집기를 사용하여 Animals.names 파일을 편집합니다. 사용하려는 카테고리를 나열하십시오. 한 줄에 정확히 하나의 항목이 필요하며 빈 줄이나 설명은 없어야 합니다. 이 예에서 .names 파일에는 정확히 4줄이 포함됩니다.
`
개
고양이
새
말
`
5. 같은 폴더에 Animals.data 텍스트 파일을 만듭니다. 이 예에서 .data 파일에는 다음이 포함됩니다.
`
수업=4
기차=/home/username/nn/animals/animals_train.txt
유효한=/home/username/nn/animals/animals_valid.txt
이름=/home/username/nn/animals/animals.names
백업=/홈/사용자 이름/nn/동물
`
6. 이미지와 주석을 저장할 폴더를 만듭니다. 예를 들어 ~/nn/animals/dataset일 수 있습니다. 각 이미지에는 해당 이미지의 주석을 설명하는 해당 .txt 파일이 필요합니다. .txt 주석 파일의 형식은 매우 구체적입니다. 각 주석에는 주석의 정확한 좌표가 포함되어야 하기 때문에 이러한 파일을 수동으로 생성할 수 없습니다. 이미지에 주석을 추가하려면 DarkMark 또는 기타 유사한 소프트웨어를 참조하십시오. YOLO 주석 형식은 Darknet/YOLO FAQ에 설명되어 있습니다.
7. .data 파일에 이름이 지정된 "train" 및 "valid" 텍스트 파일을 생성합니다. 이 두 텍스트 파일은 Darknet이 훈련 및 검증(mAP% 계산 시)에 각각 사용해야 하는 모든 이미지를 나열해야 합니다. 행당 정확히 하나의 이미지입니다. 경로와 파일 이름은 상대적이거나 절대적일 수 있습니다.
8. 텍스트 편집기를 사용하여 .cfg 파일을 수정합니다.
9. 배치=64인지 확인하세요.
10. 세분화에 주의하세요. 네트워크 크기와 GPU에서 사용 가능한 메모리 양에 따라 세분화를 늘려야 할 수도 있습니다. 사용하기에 가장 좋은 값은 1이므로 1부터 시작하세요. 1이 효과가 없다면 Darknet/YOLO FAQ를 참조하세요.
11. maxbatches=.... 시작하기에 좋은 값은 범주 수의 2000배입니다. 이 예에는 4마리의 동물이 있으므로 4 * 2000 = 8000입니다. 이는 maxbatches=8000을 사용한다는 의미입니다.
12. 참고 단계=.... 이는 최대 배치의 80% 및 90%로 설정되어야 합니다. 이 예에서는 maxbatches가 8000으로 설정되었으므로 steps=6400,7200을 사용합니다.
13. 너비=... 및 높이=.... 이는 네트워크 크기입니다. Darknet/YOLO FAQ에서는 사용할 최적의 크기를 계산하는 방법을 설명합니다.
14. [yolo] 섹션 앞의 모든 클래스=... 행에 대한 [convolutional] 섹션을 검색하고 .names 파일의 클래스 수로 수정합니다. 이 예에서는 클래스=4를 사용합니다.
15. 각 [yolo] 섹션 앞의 [convolutional] 섹션에서 모든 필터=... 라인을 검색합니다. 사용할 값은 (범주수 + 5) 3 입니다. 이는 이 예에서 (4 + 5) 3 = 27임을 의미합니다. 따라서 적절한 줄에 filter=27을 사용합니다.
훈련을 시작하세요! 다음 명령을 실행하십시오.
`배쉬
CD ~/nn/동물/
다크넷 탐지기 -map -dont_show 기차 동물.데이터 동물.cfg
`
기다리세요. 가장 좋은 가중치는 Animals_best.weights로 저장됩니다. Chart.png 파일을 보면 훈련 진행 상황을 관찰할 수 있습니다. 새로운 네트워크를 훈련할 때 사용할 수 있는 추가 매개변수는 Darknet/YOLO FAQ를 참조하세요.
훈련 중에 더 자세한 내용을 보려면 --verbose 매개변수를 추가하세요. 예를 들어:
`배쉬
다크넷 탐지기 -map -dont_show --verbose 기차 동물.데이터 동물.cfg
`
기타 도구 및 링크
Darknet/YOLO 프로젝트를 관리하고, 이미지에 주석을 달고, 주석의 유효성을 검사하고, Darknet 교육에 필요한 파일을 생성하려면 DarkMark를 참조하세요.
Darknet에 대한 강력한 대안 CLI, 비디오에서 이미지 타일링, 개체 추적을 사용하거나 상용 애플리케이션에서 쉽게 사용할 수 있는 강력한 C++ API에 대해서는 DarkHelp를 참조하세요.
Darknet/YOLO FAQ가 귀하의 질문에 답하는 데 도움이 될 수 있는지 확인하세요.
Stéphane의 YouTube 채널에서 다양한 튜토리얼과 예제 비디오를 확인하세요.
지원 관련 질문이 있거나 다른 Darknet/YOLO 사용자와 채팅하고 싶다면 Darknet/YOLO Discord 서버에 가입하세요.
로드맵
최종 업데이트 날짜: 2024년 10월 30일:
완전한
1. 훈련 중에 사용된 qsort()를 std::sort()로 교체하십시오.