Video2X: การขยายขนาดวิดีโอคุณภาพสูงและเฟรมเวิร์กการแก้ไขเฟรม
ตัวแก้ไขซอร์สโค้ด
สำคัญ
เวอร์ชัน 4 และ 5 มีสถานะสิ้นสุดอายุการใช้งาน (EOL) แล้ว เนื่องจากทรัพยากรในการพัฒนามีจำกัด ปัญหาใดๆ ที่เกี่ยวข้องกับเวอร์ชันต่ำกว่า 6 จะไม่ได้รับการแก้ไขอีกต่อไป
เวอร์ชัน 6.0.0
ดาวน์โหลดตัวติดตั้ง Windows
โดยสรุป: เวอร์ชัน 6.0.0 เป็นการเขียนโปรเจ็กต์ Video2X ใหม่ทั้งหมดใน C/C++ ด้วยสถาปัตยกรรมที่รวดเร็วและมีประสิทธิภาพยิ่งขึ้น การรองรับข้ามแพลตฟอร์ม คุณภาพเอาต์พุตที่ได้รับการปรับปรุงอย่างมาก และคุณสมบัติใหม่สำหรับการติดตั้งที่ง่ายดายบน Windows GUI และตัวติดตั้ง .
เวอร์ชัน 6.0.0 เป็นการเขียนโปรเจ็กต์ใหม่ทั้งหมด ซึ่งใช้งานใน C/C++ และมีคุณสมบัติดังต่อไปนี้:
1. สถาปัตยกรรมที่เร็วขึ้น: ด้วยการใช้ประโยชน์จากมัลติเธรดและการเร่งความเร็วของ GPU ทำให้ Video2X เร็วขึ้นกว่าเดิมมาก
2. รองรับข้ามแพลตฟอร์ม: ตอนนี้ Video2X ทำงานบน Windows, Linux และ macOS
3. คุณภาพเอาต์พุตที่ได้รับการปรับปรุง: ตอนนี้ Video2X ให้คุณภาพการลดอัตราการสุ่มสัญญาณที่สูงขึ้น โดยเฉพาะอย่างยิ่งสำหรับวิดีโอที่มีความละเอียดสูง
4. GUI ใหม่: ตอนนี้ Video2X มี GUI ที่ใช้งานง่ายซึ่งทำให้ขั้นตอนการตั้งค่าและการใช้งานง่ายขึ้น
5. ตัวติดตั้งใหม่: ตอนนี้ Video2X มีตัวติดตั้งที่ใช้งานง่ายซึ่งช่วยให้คุณติดตั้งซอฟต์แวร์บน Windows ได้อย่างรวดเร็วและง่ายดาย
การสนับสนุน RealCUGAN และการแก้ไขเฟรมโดยใช้ RIFE ในเร็วๆ นี้
ดาวน์โหลดเวอร์ชัน Windows
คุณสามารถดาวน์โหลด Windows เวอร์ชันล่าสุดได้จากหน้าเผยแพร่ สำหรับการใช้งาน GUI พื้นฐาน โปรดดูที่หน้าวิกิ GUI หากคุณไม่สามารถดาวน์โหลดโดยตรงจาก GitHub ให้ลองใช้มิเรอร์ ปัจจุบัน GUI รองรับภาษาต่อไปนี้:
1. ภาษาอังกฤษ
2. จีนตัวย่อ
3. ภาษาจีนดั้งเดิม
4. ภาษาญี่ปุ่น
5. เกาหลี
6. ฝรั่งเศส
7. เยอรมัน
8. ภาษาอิตาลี
9. สเปน
10. โปรตุเกส
11. รัสเซีย
ติดตั้งบนลินุกซ์
คุณสามารถติดตั้ง Video2X บน Arch Linux ได้โดยใช้แพ็คเกจ video2x-git หรือดาวน์โหลดไบนารีที่คอมไพล์แล้วจากหน้าเผยแพร่ หากคุณต้องการสร้างจากแหล่งที่มา โปรดดูไฟล์ PKGBUILD สำหรับภาพรวมของแพ็กเกจและคำสั่งที่จำเป็น หากคุณไม่ต้องการคอมไพล์โปรแกรมจากแหล่งที่มา ให้พิจารณาใช้คอนเทนเนอร์อิมเมจด้านล่าง
ภาพคอนเทนเนอร์
อิมเมจคอนเทนเนอร์ Video2X มีอยู่ในรีจีสทรีคอนเทนเนอร์ GitHub เพื่อการปรับใช้ที่ง่ายดายบน Linux และ macOS หากคุณติดตั้ง Docker/Podman ไว้ คุณสามารถเริ่มการขยายสัญญาณวิดีโอได้ด้วยคำสั่งเดียว สำหรับข้อมูลเพิ่มเติมเกี่ยวกับวิธีใช้อิมเมจ Docker ของ Video2X โปรดดูเอกสารประกอบ
Google Colab (ล้าสมัย: 5.0.0-beta7)
หากคุณไม่มี GPU อันทรงพลังเป็นของตัวเอง คุณสามารถใช้ Video2X ได้ฟรีบน Google Colab คุณสามารถยืม GPU อันทรงพลัง (NVIDIA T4, L4 หรือ A100) ได้ฟรีบนเซิร์ฟเวอร์ของ Google สูงสุด 12 ชั่วโมงต่อเซสชัน โปรดใช้ทรัพยากรฟรีอย่างยุติธรรม และอย่าสร้างเซสชันต่อเนื่องและเรียกใช้ Zoom 24/7 ซึ่งอาจส่งผลให้คุณถูกแบน หากคุณต้องการใช้ GPU ที่ดีกว่าและรันไทม์นานขึ้น ดาวน์โหลด Colab Pro/Pro+ คำแนะนำในการใช้งานจะฝังอยู่ในสมุดบันทึก Colab
กลุ่มสนทนาโทรเลข
เข้าร่วมกลุ่มสนทนา Telegram ของเราเพื่อถามคำถามที่คุณมีเกี่ยวกับ Video2X สนทนาโดยตรงกับนักพัฒนา หรือหารือเกี่ยวกับเทคโนโลยีความละเอียดสูงพิเศษและอนาคตของ Video2X
เอกสาร
เอกสารประกอบสำหรับ Video2X โฮสต์อยู่ในหน้า Wiki ของที่เก็บนี้ ประกอบด้วยคำแนะนำที่ครอบคลุมเกี่ยวกับวิธีใช้ GUI, CLI, อิมเมจคอนเทนเนอร์, ไลบรารี และอื่นๆ วิกิเปิดรับการแก้ไขโดยชุมชน ดังนั้นคุณจึงสามารถแก้ไขข้อผิดพลาดหรือเพิ่มเนื้อหาใหม่ลงในเอกสารประกอบได้
แนะนำ
Video2X เป็นเฟรมเวิร์กการขยายขนาดวิดีโอตามการเรียนรู้ของเครื่องและการแก้ไขเฟรมที่สร้างขึ้นโดยมีองค์ประกอบหลักสามประการ:
1. โมเดล: Video2X ใช้โมเดลการเรียนรู้เชิงลึกขั้นสูงที่หลากหลายเพื่อดำเนินการขยายขนาดและการแก้ไขเฟรม
2. เครื่องยนต์: กลไก Video2X รับผิดชอบในการประมวลผลข้อมูลวิดีโอ ดำเนินการอนุมานโมเดล และสร้างวิดีโอเอาท์พุต
3. อินเทอร์เฟซ: Video2X มีอินเทอร์เฟซที่หลากหลาย เช่น GUI, CLI และคอนเทนเนอร์อิมเมจ เพื่อให้คุณสามารถใช้เฟรมเวิร์กได้อย่างง่ายดาย
วิดีโอสาธิต
ซูมเข้า: ตัวอย่างภาพยนตร์ Spirited Away
ตัวอย่างการทดสอบมาตรฐาน
ข้อมูลโค้ดต่อไปนี้สามารถใช้เพื่อทดสอบว่าการตั้งค่าของคุณทำงานอย่างถูกต้องหรือไม่ นี่เป็นตัวอย่างข้อมูลมาตรฐานสำหรับการเรียกใช้การวัดประสิทธิภาพ
คลิปต้นฉบับมาจากอนิเมะเรื่อง "The Pet Girl of Sakurasou"
ลิขสิทธิ์ของคลิปนี้เป็นของ บริษัท อะมิโนพัลส์ จำกัด
ใบอนุญาต
โครงการนี้เผยแพร่ภายใต้ลิขสิทธิ์ GNU AGPL เวอร์ชัน 3
ลิขสิทธิ์ (C) 2018-2024 K4YT3X และผู้มีส่วนร่วม
โครงการนี้รวมถึงหรือขึ้นอยู่กับโครงการต่อไปนี้:
1. opencv: https://github.com/opencv/opencv
2. waifu2x-caffe: https://github.com/nagadomi/waifu2x-caffe
3. จริง ESRGAN: https://github.com/xinntao/Real-ESRGAN
4. BasicSR: https://github.com/xinntao/BasicSR
5. GFPGAN: https://github.com/TencentARC/GFPGAN
6. รวย: https://github.com/hzwer/arXiv2021-RIFE
7. Anime4K: https://github.com/bloc97/Anime4K
คุณสามารถค้นหาข้อมูลใบอนุญาตเพิ่มเติมได้ในไฟล์ประกาศ
ขอขอบคุณเป็นพิเศษ
ขอขอบคุณเป็นพิเศษต่อบุคคลต่อไปนี้ที่มีส่วนร่วมในโครงการนี้ ตามลำดับตัวอักษร:
1. K4YT3X: ผู้สร้างโครงการ
2. ผู้ร่วมให้ข้อมูล: ขอขอบคุณทุกคนที่มีส่วนร่วมในโครงการนี้
ตัวอย่างเช่น:
ใบอนุญาต Apache-2.0
สารบัญ
กรอบการตรวจจับวัตถุ Darknet และ YOLO
1. กระดาษ
2. ข้อมูลทั่วไป
3. เวอร์ชันดาร์กเน็ต
4. ตุ้มน้ำหนักก่อนการฝึก MSCOCO
5. สร้าง
1. Google Colab
2. วิธีลินุกซ์ CMake
3. วิธี Windows CMake
6. ใช้ Darknet
1. คลีไอ
2. การฝึกอบรม
7. เครื่องมือและลิงค์อื่นๆ
8. แผนงาน
1. เป้าหมายระยะสั้น
2. เป้าหมายระยะกลาง
3. เป้าหมายระยะยาว
กรอบการตรวจจับวัตถุ Darknet และ YOLO
Darknet เป็นเฟรมเวิร์กโครงข่ายประสาทเทียมแบบโอเพ่นซอร์สที่เขียนด้วยภาษา C, C++ และ CUDA
YOLO (คุณดูเพียงครั้งเดียว) คือระบบตรวจจับวัตถุแบบเรียลไทม์ที่ล้ำสมัยที่ทำงานในกรอบงาน Darknet
อ่านวิธีที่ Hank.ai ช่วยเหลือชุมชน Darknet/YOLO
ประกาศ Darknet V3 “Jazz”
ตรวจสอบเว็บไซต์ Darknet/YOLO
โปรดอ่านคำถามที่พบบ่อยของ Darknet/YOLO
เข้าร่วมเซิร์ฟเวอร์ Darknet/YOLO Discord
กระดาษ
1. กระดาษ YOLOv7
2. กระดาษปรับขนาด-YOLOv4
3. กระดาษ YOLOv4
4. กระดาษ YOLOv3
ข้อมูลทั่วไป
เฟรมเวิร์ก Darknet/YOLO ยังคงเร็วกว่าและแม่นยำกว่าเฟรมเวิร์กอื่นๆ และเวอร์ชัน YOLO
เฟรมเวิร์กนั้นฟรีและโอเพ่นซอร์สโดยสมบูรณ์ คุณสามารถรวม Darknet/YOLO เข้ากับโปรเจ็กต์และผลิตภัณฑ์ที่มีอยู่ (รวมถึงผลิตภัณฑ์เชิงพาณิชย์) โดยไม่ต้องมีใบอนุญาตหรือค่าธรรมเนียม
Darknet V3 ("Jazz") เปิดตัวในเดือนตุลาคม 2024 สามารถรันวิดีโอชุดข้อมูล LEGO ได้อย่างแม่นยำที่สูงถึง 1,000 FPS เมื่อใช้ GPU NVIDIA RTX 3090 ซึ่งหมายความว่าแต่ละเฟรมวิดีโอใช้เวลา 1 มิลลิวินาทีหรือน้อยกว่า อ่าน ปรับขนาด และประมวลผลภายในภายในโดย Darknet/ โยโล
หากคุณต้องการความช่วยเหลือหรือต้องการหารือเกี่ยวกับ Darknet/YOLO โปรดเข้าร่วมเซิร์ฟเวอร์ Discord ของ Darknet/YOLO: https://discord.gg/zSq8rtW
Darknet/YOLO เวอร์ชัน CPU สามารถทำงานบนอุปกรณ์ง่ายๆ เช่น Raspberry Pi, เซิร์ฟเวอร์คลาวด์และ colab, เดสก์ท็อป, แล็ปท็อป และอุปกรณ์การฝึกอบรมระดับไฮเอนด์ Darknet/YOLO เวอร์ชัน GPU ต้องใช้ GPU ที่รองรับ CUDA ของ NVIDIA
Darknet/YOLO เป็นที่รู้จักว่าทำงานบน Linux, Windows และ Mac ดูคำแนะนำในการสร้างด้านล่าง
เวอร์ชันดาร์กเน็ต
เครื่องมือ Darknet ดั้งเดิมที่เขียนโดย Joseph Redmon ในปี 2556-2560 ไม่มีหมายเลขเวอร์ชัน เราคิดว่านี่คือเวอร์ชัน 0.x
ไลบรารี Darknet ยอดนิยมถัดไปที่ดูแลโดย Alexey Bochkovskiy ในช่วงปี 2560-2564 ยังไม่มีหมายเลขเวอร์ชันเช่นกัน เราคิดว่านี่คือเวอร์ชัน 1.x
ห้องสมุด Darknet ซึ่งสนับสนุนโดย Hank.ai และดูแลโดย Stéphane Charette ซึ่งเริ่มในปี 2023 เป็นห้องสมุดแรกที่มีคำสั่งเวอร์ชัน ตั้งแต่ปี 2023 ถึงสิ้นปี 2024 จะกลับมาเป็นเวอร์ชัน 2.x "OAK"
เป้าหมายคือการทำความคุ้นเคยกับฐานโค้ดโดยทำลายฟังก์ชันการทำงานที่มีอยู่ให้น้อยที่สุดเท่าที่จะเป็นไปได้
1. เขียนขั้นตอนการสร้างใหม่เพื่อให้เราสามารถสร้างบน Windows และ Linux โดยใช้ CMake ได้แล้ว
2. แปลงฐานโค้ดเพื่อใช้คอมไพเลอร์ C++
3. ปรับปรุง Chart.png ระหว่างการฝึกอบรม
4. การแก้ไขข้อบกพร่องและการเพิ่มประสิทธิภาพที่เกี่ยวข้องกับประสิทธิภาพ ซึ่งส่วนใหญ่เกี่ยวข้องกับการลดเวลาที่ต้องใช้ในการฝึกอบรมเครือข่าย
สาขาสุดท้ายของฐานโค้ดคือเวอร์ชัน 2.1 ในสาขา v2
การพัฒนาระยะต่อไปจะเริ่มในกลางปี 2567 และจะเปิดตัวในเดือนตุลาคม 2567 คำสั่ง version ส่งคืน 3.x "JAZZ"
หากคุณต้องการรันคำสั่งใดคำสั่งหนึ่งเหล่านี้ คุณสามารถชำระเงินสาขา v2 ก่อนหน้าได้ตลอดเวลา โปรดแจ้งให้เราทราบ เพื่อให้เราตรวจสอบการเพิ่มคำสั่งที่ขาดหายไปกลับเข้าไปได้
1. ลบคำสั่งเก่าและคำสั่งที่ไม่ได้รับการดูแลออกจำนวนมาก
2. ทำการเพิ่มประสิทธิภาพหลายอย่าง ทั้งในระหว่างการฝึกอบรมและการอนุมาน
3. แก้ไข C API เก่า แอปพลิเคชันที่ใช้ Darknet API ดั้งเดิมจะต้องทำการแก้ไขเล็กน้อย: https://darknetcv.ai/api/api.html
4. Darknet V3 C และ C++ API ใหม่: https://darknetcv.ai/api/api.html
5. แอปพลิเคชันใหม่และโค้ดตัวอย่างใน src-examples: https://darknetcv.ai/api/files.html
ตุ้มน้ำหนักฝึกหัด MSCOCO
เพื่อความสะดวก YOLO เวอร์ชันยอดนิยมหลายเวอร์ชันได้รับการฝึกอบรมล่วงหน้าในชุดข้อมูล MSCOCO ชุดข้อมูลประกอบด้วย 80 หมวดหมู่และสามารถดูได้ในไฟล์ข้อความ cfg/coco.names
มีชุดข้อมูลที่เรียบง่ายกว่าและตุ้มน้ำหนักที่ได้รับการฝึกล่วงหน้าอื่นๆ หลายชุดสำหรับการทดสอบ Darknet/YOLO เช่น LEGO Gears และ Rolodex สำหรับข้อมูลเพิ่มเติม โปรดดูคำถามที่พบบ่อยของ Darknet/YOLO
ตุ้มน้ำหนักที่ฝึกล่วงหน้าของ MSCOCO สามารถดาวน์โหลดได้จากหลายตำแหน่ง และยังสามารถดาวน์โหลดได้จาก repo นี้อีกด้วย:
1. YOLOv2 พฤศจิกายน 2559
1. YOLOv2-จิ๋ว
2.YOLOv2-เต็ม
2. YOLOv3 พฤษภาคม 2018
1. YOLOv3-จิ๋ว
2.YOLOv3-เต็ม
3. YOLOv4 พฤษภาคม 2020
1.YOLOv4-จิ๋ว
2. YOLOv4-เต็ม
4. YOLOv7 สิงหาคม 2022
1. YOLOv7-จิ๋ว
2. YOLOv7-เต็ม
ตุ้มน้ำหนักที่ฝึกล่วงหน้าของ MSCOCO มีไว้เพื่อการสาธิตเท่านั้น ไฟล์ .cfg และ .names ที่เกี่ยวข้องสำหรับ MSCOCO จะอยู่ในไดเร็กทอรี cfg คำสั่งตัวอย่าง:
`ทุบตี
wget --no-clobber https://github.com/hank-ai/darknet/releases/download/v2.0/yolov4-tiny.weights
darknet02displayannotatedimages coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
darknet03display_videos coco.names yolov4-tiny.cfg yolov4-tiny.weights video1.avi
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights image1.jpg
DarkHelp coco.names yolov4-tiny.cfg yolov4-tiny.weights วิดีโอ 1.avi
-
โปรดทราบว่าควรฝึกอบรมเครือข่ายของตนเอง MSCOCO มักจะใช้เพื่อยืนยันว่าทุกอย่างทำงานได้อย่างถูกต้อง
สร้าง
วิธีการสร้างต่างๆ ที่มีอยู่ในอดีต (ก่อนปี 2023) ได้ถูกรวมเข้าเป็นโซลูชันแบบครบวงจร Darknet ต้องการ C++17 หรือสูงกว่า, OpenCV และใช้ CMake เพื่อสร้างไฟล์โปรเจ็กต์ที่จำเป็น
คุณไม่จำเป็นต้องรู้ C++ เพื่อสร้าง ติดตั้ง หรือรัน Darknet/YOLO เช่นเดียวกับที่คุณไม่จำเป็นต้องเป็นช่างเครื่องก็ขับรถได้
Google Colab
คำแนะนำของ Google Colab เหมือนกับคำแนะนำของ Linux มีสมุดบันทึก Jupyter หลายเครื่องที่แสดงวิธีดำเนินการบางอย่าง เช่น การฝึกอบรมเครือข่ายใหม่
ตรวจสอบสมุดบันทึกในไดเรกทอรีย่อย colab หรือทำตามคำแนะนำของ Linux ด้านล่าง
วิธีการลินุกซ์ CMake
บทช่วยสอนการสร้าง Darknet สำหรับ Linux
ทางเลือก: หากคุณมี NVIDIA GPU ที่ทันสมัย คุณสามารถติดตั้ง CUDA หรือ CUDA+cuDNN ได้ในขณะนี้ หากติดตั้งแล้ว Darknet จะใช้ GPU ของคุณเพื่อเร่งการประมวลผลภาพ (และวิดีโอ)
คุณต้องลบไฟล์ CMakeCache.txt ออกจากไดเร็กทอรี Darknet build เพื่อบังคับให้ CMake ค้นหาไฟล์ที่จำเป็นทั้งหมดอีกครั้ง
อย่าลืมสร้าง Darknet ใหม่
Darknet สามารถรันได้โดยไม่ต้องใช้มัน แต่ถ้าคุณต้องการฝึกเครือข่ายแบบกำหนดเอง คุณจะต้องมี CUDA หรือ CUDA+cuDNN
ไปที่ https://developer.nvidia.com/cuda-downloads เพื่อดาวน์โหลดและติดตั้ง CUDA
ไปที่ https://developer.nvidia.com/rdp/cudnn-download หรือ https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#cudnn-package-manager-installation-overview เพื่อดาวน์โหลด และติดตั้ง cuDNN
หลังจากติดตั้ง CUDA แล้ว ตรวจสอบให้แน่ใจว่าคุณสามารถเรียกใช้ nvcc และ nvidia-smi ได้ คุณอาจต้องแก้ไขตัวแปร PATH
หากคุณติดตั้ง CUDA หรือ CUDA+cuDNN ในภายหลัง หรือหากคุณอัปเกรดเป็นซอฟต์แวร์ NVIDIA เวอร์ชันใหม่กว่า:
คำแนะนำเหล่านี้ถือว่า (แต่ไม่จำเป็น!) ว่าระบบกำลังใช้งาน Ubuntu 22.04 หากคุณกำลังใช้การกระจายแบบอื่น ให้ปรับเปลี่ยนตามความจำเป็น
`ทุบตี
sudo apt-get ติดตั้ง build-essential git libopencv-dev cmake
mkdir ~/srccd ~/src
โคลนคอมไพล์ https://github.com/hank-ai/darknet
ซีดีดาร์กเน็ต
สร้าง mkdir
สร้างซีดี
cmake -DCMAKEBUILDTYPE=ปล่อย ..
ทำแพ็คเกจ -j4
sudo dpkg -i darknet-VERSION.deb
-
หากคุณใช้ CMake เวอร์ชันเก่า คุณจะต้องอัปเกรด CMake เพื่อรันคำสั่ง cmake ด้านบน การอัพเกรด CMake บน Ubuntu สามารถทำได้ด้วยคำสั่งต่อไปนี้:
`ทุบตี
sudo apt-get ล้าง cmake
sudo snap ติดตั้ง cmake --classic
-
หากคุณใช้ bash เป็นเชลล์คำสั่ง คุณจะต้องรีสตาร์ทเชลล์ในตอนนี้ หากใช้ปลาควรเลือกเส้นทางใหม่ทันที
ผู้ใช้ขั้นสูง:
หากคุณต้องการสร้างไฟล์การติดตั้ง RPM แทนไฟล์ DEB โปรดดูบรรทัดที่เกี่ยวข้องใน CM_package.cmake ก่อนที่จะรันแพ็คเกจ make -j4 คุณต้องแก้ไขสองบรรทัดนี้ก่อน:
`ทุบตี
SET (CPACKGENERATOR "DEB")# SET (CPACKGENERATOR "RPM")
-
สำหรับการแจกแจงเช่น Centos และ OpenSUSE คุณต้องสลับสองบรรทัดนี้ใน CM_package.cmake เป็น:
`ทุบตี
ชุด (CPACK_GENERATOR "DEB")
ชุด (CPACK_GENERATOR "รอบต่อนาที")
-
หากต้องการติดตั้งแพ็คเกจ ให้ใช้ตัวจัดการแพ็คเกจปกติของการแจกจ่ายของคุณหลังจากที่สร้างเสร็จแล้ว ตัวอย่างเช่น บนระบบที่ใช้ Debian เช่น Ubuntu:
`ทุบตี
sudo dpkg -i darknet-2.0.1-Linux.deb
-
การติดตั้งแพ็คเกจ .deb จะคัดลอกไฟล์ต่อไปนี้:
1. /usr/bin/darknet เป็นไฟล์ปฏิบัติการ Darknet ปกติ เรียกใช้เวอร์ชัน darknet จาก CLI เพื่อยืนยันว่าติดตั้งอย่างถูกต้อง
2. /usr/include/darknet.h คือ Darknet API สำหรับนักพัฒนา C, C++ และ Python
3. /usr/include/darknet_version.h มีข้อมูลเวอร์ชันสำหรับนักพัฒนา
4. /usr/lib/libdarknet.so เป็นไลบรารีสำหรับนักพัฒนา C, C++ และ Python ที่จะเชื่อมโยง
5. /opt/darknet/cfg/... เป็นที่จัดเก็บเทมเพลต .cfg ทั้งหมด
คุณทำเสร็จแล้ว! Darknet ถูกสร้างและติดตั้งลงใน /usr/bin/ รันคำสั่งต่อไปนี้เพื่อทดสอบ: เวอร์ชัน darknet
หากคุณไม่มี /usr/bin/darknet แสดงว่าคุณไม่ได้ติดตั้ง คุณเพิ่งสร้างมันขึ้นมา! ตรวจสอบให้แน่ใจว่าได้ติดตั้งไฟล์ .deb หรือ .rpm ตามที่อธิบายไว้ข้างต้น
วิธีการ Windows CMake
คำแนะนำเหล่านี้ถือว่าคุณมีการติดตั้ง Windows 11 22H2 ใหม่ทั้งหมด
เปิดหน้าต่างพร้อมท์คำสั่ง cmd.exe ปกติ และเรียกใช้คำสั่งต่อไปนี้:
`ทุบตี
winget ติดตั้ง Git.Git
winget ติดตั้ง Kitware.CMake
ติดตั้ง winget nsis.nsis
winget ติดตั้ง Microsoft.VisualStudio.2022.Community
-
ณ จุดนี้ เราจำเป็นต้องแก้ไขการติดตั้ง Visual Studio เพื่อรวมการรองรับแอปพลิเคชัน C++:
1. คลิกเมนู Windows Start และเรียกใช้ Visual Studio Installer
2. คลิกแก้ไข
3. เลือกการพัฒนาเดสก์ท็อปโดยใช้ C++
4. คลิกแก้ไขที่มุมขวาล่าง จากนั้นคลิกใช่
เมื่อดาวน์โหลดและติดตั้งทุกอย่างแล้ว ให้คลิกที่เมนู Windows Start อีกครั้ง และเลือก Developer Command Prompt สำหรับ Visual Studio 2022 อย่าใช้ PowerShell เพื่อทำตามขั้นตอนเหล่านี้ คุณจะประสบปัญหา!
ผู้ใช้ขั้นสูง:
แทนที่จะเรียกใช้พรอมต์คำสั่งของนักพัฒนา คุณสามารถเข้าสู่ระบบอุปกรณ์โดยใช้พรอมต์คำสั่งปกติหรือ ssh และเรียกใช้ "Program FilesMicrosoft Visual Studio2022CommunityCommon7ToolsVsDevCmd.bat" ด้วยตนเอง
เมื่อคุณมีพรอมต์คำสั่งสำหรับนักพัฒนาที่ทำงานตามที่อธิบายไว้ข้างต้น (ไม่ใช่ PowerShell!) ให้รันคำสั่งต่อไปนี้เพื่อติดตั้ง Microsoft VCPKG ซึ่งจะใช้ในการสร้าง OpenCV:
`ทุบตี
CDC:
mkdir c:srccd c:src
โคลนคอมไพล์ https://github.com/microsoft/vcpkg
ซีดี vcpkg
bootstrap-vcpkg.bat
.vcpkg.exe รวมการติดตั้ง
.vcpkg.exe รวม powershell.vcpkg.exe ติดตั้ง opencv [contrib, dnn, freetype, jpeg, openmp,png, webp, world]:x64-windows
-
โปรดอดทนกับขั้นตอนสุดท้ายนี้ เนื่องจากอาจใช้เวลานานในการรัน มันต้องมีการดาวน์โหลดและสร้างสิ่งต่าง ๆ มากมาย
ผู้ใช้ขั้นสูง:
โปรดทราบว่าเมื่อสร้าง OpenCV คุณอาจต้องเพิ่มโมดูลเสริมอื่นๆ มากมาย เรียกใช้ .vcpkg.exe ค้นหา opencv เพื่อดูรายการทั้งหมด
ทางเลือก: หากคุณมี NVIDIA GPU ที่ทันสมัย คุณสามารถติดตั้ง CUDA หรือ CUDA+cuDNN ได้ในขณะนี้ หากติดตั้งแล้ว Darknet จะใช้ GPU ของคุณเพื่อเร่งการประมวลผลภาพ (และวิดีโอ)
คุณต้องลบไฟล์ CMakeCache.txt ออกจากไดเร็กทอรี Darknet build เพื่อบังคับให้ CMake ค้นหาไฟล์ที่จำเป็นทั้งหมดอีกครั้ง
อย่าลืมสร้าง Darknet ใหม่
Darknet สามารถรันได้โดยไม่ต้องใช้มัน แต่ถ้าคุณต้องการฝึกเครือข่ายแบบกำหนดเอง คุณจะต้องมี CUDA หรือ CUDA+cuDNN
ไปที่ https://developer.nvidia.com/cuda-downloads เพื่อดาวน์โหลดและติดตั้ง CUDA
ไปที่ https://developer.nvidia.com/rdp/cudnn-download หรือ https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#download-windows เพื่อดาวน์โหลดและติดตั้ง cuDNN
หลังจากติดตั้ง CUDA แล้ว ตรวจสอบให้แน่ใจว่าคุณสามารถเรียกใช้ nvcc.exe และ nvidia-smi.exe ได้ คุณอาจต้องแก้ไขตัวแปร PATH
หลังจากดาวน์โหลด cuDNN แล้ว ให้แตกไฟล์และคัดลอก bin รวม และไดเร็กทอรี lib ไปยัง C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/[version]/. คุณอาจต้องเขียนทับไฟล์บางไฟล์
หากคุณติดตั้ง CUDA หรือ CUDA+cuDNN ในภายหลัง หรือหากคุณอัปเกรดเป็นซอฟต์แวร์ NVIDIA เวอร์ชันใหม่กว่า:
ต้องติดตั้ง CUDA หลังจาก Visual Studio หากคุณอัปเกรด Visual Studio อย่าลืมติดตั้ง CUDA ใหม่
เมื่อขั้นตอนก่อนหน้าทั้งหมดเสร็จสมบูรณ์ คุณจะต้องโคลน Darknet และสร้างมันขึ้นมา ในขั้นตอนนี้ เรายังต้องบอก CMake ด้วยว่า vcpkg อยู่ที่ไหน เพื่อให้สามารถค้นหา OpenCV และการอ้างอิงอื่นๆ ได้:
`ทุบตี
ซีดี c:src
โคลนคอมไพล์ https://github.com/hank-ai/darknet.git
ซีดีดาร์กเน็ต
สร้าง mkdir
สร้างซีดี
cmake -DCMAKEBUILDTYPE=Release -DCMAKETOOLCHAINFILE=C:/src/vcpkg/scripts/buildsystems/vcpkg.cmake ..
msbuild.exe /property:Platform=x64;Configuration=Release /target:Build -maxCpuCount -verbosity:normal -detailedSummary darknet.sln
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
-
หากคุณได้รับข้อผิดพลาดเกี่ยวกับ CUDA หรือ cuDNN DLL ที่หายไป (เช่น cublas64_12.dll) ให้คัดลอกไฟล์ CUDA .dll ไปยังไดเร็กทอรีเอาต์พุตเดียวกันกับ Darknet.exe ด้วยตนเอง ตัวอย่างเช่น:
`ทุบตี
คัดลอก "C: Program FilesNVIDIA GPU Computing ToolkitCUDAv12.2bin*.dll" src-cliRelease
-
(นี่คือตัวอย่าง! โปรดตรวจสอบเพื่อให้แน่ใจว่าคุณใช้งานเวอร์ชันนี้ และรันคำสั่งที่เหมาะสมสำหรับเวอร์ชันที่คุณติดตั้ง)
หลังจากคัดลอกไฟล์แล้ว ให้รันคำสั่ง msbuild.exe สุดท้ายอีกครั้งเพื่อสร้างแพ็คเกจการติดตั้ง NSIS:
`ทุบตี
msbuild.exe /property:Platform=x64;Configuration=Release PACKAGE.vcxproj
-
ผู้ใช้ขั้นสูง:
โปรดทราบว่าผลลัพธ์ของคำสั่ง cmake คือไฟล์โซลูชัน Visual Studio ปกติ Darknet.sln หากคุณเป็นนักพัฒนาซอฟต์แวร์ที่ใช้ Visual Studio GUI แทน msbuild.exe เพื่อสร้างโครงการบ่อยครั้ง คุณสามารถละเว้นบรรทัดคำสั่งและโหลดโครงการ Darknet ใน Visual Studio ได้
ตอนนี้คุณควรมีไฟล์นี้พร้อมที่จะรัน: C:srcDarknetbuildsrc-cliReleasedarknet.exe เรียกใช้คำสั่งต่อไปนี้เพื่อทดสอบ: เวอร์ชัน C:srcDarknetbuildsrc-cliReleasedarknet.exe
หากต้องการติดตั้ง Darknet ไลบรารี รวมไฟล์ และ DLL ที่จำเป็นอย่างถูกต้อง ให้เรียกใช้วิซาร์ดการติดตั้ง NSIS ที่สร้างไว้ในขั้นตอนก่อนหน้า ตรวจสอบไฟล์ darknet-VERSION.exe ในไดเร็กทอรี build ตัวอย่างเช่น:
`ทุบตี
darknet-2.0.31-win64.exe
-
การติดตั้งแพ็คเกจการติดตั้ง NSIS จะ:
1. สร้างไดเร็กทอรีชื่อ Darknet เช่น C:Program FilesDarknet
2. ติดตั้งแอปพลิเคชัน CLI, darknet.exe และแอปพลิเคชันตัวอย่างอื่นๆ
3. ติดตั้งไฟล์ .dll ของบริษัทอื่นที่จำเป็น เช่น ไฟล์จาก OpenCV
4. ติดตั้งไฟล์ Darknet .dll, .lib และ .h ที่จำเป็นเพื่อใช้ darknet.dll จากแอปพลิเคชันอื่น
5. ติดตั้งไฟล์เทมเพลต .cfg
คุณทำเสร็จแล้ว! หลังจากวิซาร์ดการติดตั้งเสร็จสมบูรณ์ Darknet จะถูกติดตั้งใน C:Program FilesDarknet รันคำสั่งต่อไปนี้เพื่อทดสอบ: เวอร์ชัน C:Program FilesDarknetbindarknet.exe
หากคุณไม่มี C:/Program Files/darknet/bin/darknet.exe แสดงว่าคุณไม่ได้ติดตั้ง คุณเพิ่งสร้างมันขึ้นมา! ตรวจสอบให้แน่ใจว่าได้ทำแต่ละพาเนลของตัวช่วยสร้างการติดตั้ง NSIS ครบถ้วนตามที่อธิบายไว้ในขั้นตอนก่อนหน้า
การใช้ดาร์กเน็ต
คลีไอ
ต่อไปนี้ไม่ใช่รายการคำสั่งทั้งหมดที่ Darknet รองรับ
นอกจาก Darknet CLI แล้ว ยังมี CLI ของโปรเจ็กต์ DarkHelp ซึ่งมอบ CLI ทางเลือกให้กับ Darknet/YOLO DarkHelp CLI ยังมีการปรับปรุงบางอย่างที่ไม่พบใน Darknet คุณสามารถใช้ Darknet CLI และ DarkHelp CLI ร่วมกันได้ โดยไม่ได้แยกจากกัน
สำหรับคำสั่งส่วนใหญ่ที่แสดงด้านล่าง คุณต้องมีไฟล์ .weights พร้อมด้วยไฟล์ .names และ .cfg ที่เกี่ยวข้อง คุณสามารถฝึกเครือข่ายของคุณเองได้ (แนะนำอย่างยิ่ง!) หรือดาวน์โหลดโครงข่ายประสาทเทียมที่ผู้อื่นฝึกฝนและหาได้ฟรีบนอินเทอร์เน็ต ตัวอย่างของชุดข้อมูลก่อนการฝึกอบรมได้แก่:
1. LEGO Gears (ค้นหาวัตถุในภาพ)
2. Rolodex (ค้นหาข้อความในภาพ)
3. MSCOCO (การตรวจจับเป้าหมายหมวดหมู่มาตรฐาน 80)
คำสั่งให้รันได้แก่:
แสดงรายการคำสั่งและตัวเลือกที่เป็นไปได้ที่สามารถรันได้:
`ทุบตี
ความช่วยเหลือจาก Darknet
-
ตรวจสอบเวอร์ชั่น:
`ทุบตี
เวอร์ชันดาร์กเน็ต
-
ใช้รูปภาพเพื่อทำนาย:
`ทุบตี
V2
การทดสอบเครื่องตรวจจับ darknet cars.data cars.cfg cars_best.weights image1.jpg
V3
darknet02displayภาพที่มีคำอธิบายประกอบcars.cfg image1.jpg
DarkHelp
DarkHelp cars.cfg cars.cfg cars_best.weights image1.jpg
-
พิกัดขาออก:
`ทุบตี
V2
การทดสอบเครื่องตรวจจับ darknetanimals.dataanimals.cfganimalbest.weights -extoutput dog.jpg
V3
darknet01inference_images สัตว์ dog.jpg
DarkHelp
DarkHelp --jsonanimals.cfganimals.namesanimals_best.weights dog.jpg
-
กำลังประมวลผลวิดีโอ:
`ทุบตี
V2
การสาธิตเครื่องตรวจจับ darknetanimals.dataanimals.cfganimalbest.weights -extoutput test.mp4
V3
darknet03display_videosanimals.cfg test.mp4
DarkHelp
DarkHelp Animals.cfganimals.namesanimals_best.weights test.mp4
-
อ่านจากเว็บแคม:
`ทุบตี
V2
การสาธิตเครื่องตรวจจับ darknetanimals.dataanimals.cfganimals_best.weights -c 0
V3
darknet08display_webcam สัตว์
-
บันทึกผลลัพธ์ลงในวิดีโอ:
`ทุบตี
V2
การสาธิตเครื่องตรวจจับ darknetanimals.dataanimals.cfganimalbest.weights test.mp4 -outfilename res.avi
V3
darknet05กระบวนการวิดีโอแบบมัลติเธรดanimals.cfganimals.namesanimals_best.weights test.mp4
DarkHelp
DarkHelp Animals.cfganimals.namesanimals_best.weights test.mp4
-
เจสัน:
`ทุบตี
V2
การสาธิตเครื่องตรวจจับ darknet Animals.data Animals.cfg Animalsbest.weights test50.mp4 -jsonport 8070 -mjpegport 8090 -extoutput
V3
darknet06imagestojson สัตว์ image1.jpg
DarkHelp
DarkHelp --jsonanimals.namesanimals.cfganimals_best.weights image1.jpg
-
ทำงานบน GPU เฉพาะ:
`ทุบตี
V2
การสาธิตเครื่องตรวจจับ darknetanimals.dataanimals.cfganimals_best.weights -i 1 test.mp4
-
วิธีตรวจสอบความถูกต้องของโครงข่ายประสาทเทียม:
`ทุบตี
แผนที่เครื่องตรวจจับ darknet การขับรถ.ข้อมูลการขับรถ.cfg Driving_best.weights ...
ชื่อรหัส AvgPrecision TP FN FP TN ความแม่นยำ อัตราข้อผิดพลาด ความจำเพาะในการเรียกคืนอย่างแม่นยำ FalsePosRate
-- ---- ------ ------ ------ ------ ------ -------- --------- --------- ------ ---------- ----------
0 คัน 91.2495 32648 3903 5826 65129 0.9095 0.0905 0.8486 0.8932 0.9179 0.0821
รถจักรยานยนต์ 1 คัน 80.4499 2936 513 569 5393 0.8850 0.1150 0.8377 0.8513 0.9046 0.0954
จักรยาน 2 คัน 89.0912 570 124 104 3548 0.9475 0.0525 0.8457 0.8213 0.9715 0.0285
3 คน 76.7937 7072 1727 2574 27523 0.8894 0.1106 0.7332 0.8037 0.9145 0.0855
จำนวน 4 คัน 64.3089 1068 509 733 11288 0.9087 0.0913 0.5930 0.6772 0.9390 0.0610
5 ไฟเขียว 86.8118 1969 239 510 4116 0.8904 0.1096 0.7943 0.8918 0.8898 0.1102
6 ไฟเหลือง 82.0390 126 38 30 1239 0.9525 0.0475 0.8077 0.7683 0.9764 0.0236
7ไฟแดง 94.1033 3449 217 451 4643 0.9237 0.0763 0.8844 0.9408 0.9115 0.0885
-
วิธีตรวจสอบความแม่นยำ mAP@IoU=75:
`ทุบตี
แผนที่เครื่องตรวจจับ darknet Animals.data Animals.cfg Animalsbest.weights -iouthresh 0.75
-
การคำนวณจุดยึดใหม่ทำได้ดีที่สุดใน DarkMark เนื่องจากจะทำงาน 100 ครั้งติดต่อกัน และเลือกจุดยึดที่ดีที่สุดจากจุดยึดที่คำนวณทั้งหมด อย่างไรก็ตาม หากคุณต้องการใช้งานเวอร์ชันเก่าใน Darknet:
`ทุบตี
เครื่องตรวจจับ darknet calcanchors Animals.data -numof_clusters 6 - กว้าง 320 - สูง 256
-
ฝึกอบรมเครือข่ายใหม่:
`ทุบตี
เครื่องตรวจจับ darknet -map -dont_show รถไฟanimals.dataanimals.cfg
-
(ดูหัวข้อการฝึกอบรมด้านล่าง)
รถไฟ
ลิงก์ด่วนไปยังส่วนที่เกี่ยวข้องของคำถามที่พบบ่อยเกี่ยวกับ Darknet/YOLO:
1. ฉันจะตั้งค่าไฟล์และไดเร็กทอรีของฉันได้อย่างไร?
2. ฉันควรใช้โปรไฟล์ใด?
3. ฉันควรใช้คำสั่งใดในการฝึกเครือข่ายของตัวเอง?
วิธีที่ง่ายที่สุดในการสร้างไฟล์ Darknet คำอธิบายประกอบ และการฝึกอบรมที่จำเป็นทั้งหมดโดยใช้ DarkMark นี่เป็นวิธีที่แนะนำในการฝึกโครงข่ายประสาทเทียมใหม่อย่างแน่นอน
หากคุณต้องการตั้งค่าไฟล์ต่างๆ ด้วยตนเองเพื่อฝึกเครือข่ายแบบกำหนดเอง:
1. สร้างโฟลเดอร์ใหม่เพื่อจัดเก็บไฟล์ สำหรับตัวอย่างนี้ คุณจะสร้างโครงข่ายประสาทเทียมสำหรับการตรวจจับสัตว์ ดังนั้นไดเร็กทอรีต่อไปนี้จะถูกสร้างขึ้น: ~/nn/animals/
2. คัดลอกไฟล์การกำหนดค่า Darknet ไฟล์ใดไฟล์หนึ่งที่คุณต้องการใช้เป็นเทมเพลต ตัวอย่างเช่น ดูที่ cfg/yolov4-tiny.cfg วางไว้ในโฟลเดอร์ที่คุณสร้างขึ้น ในตัวอย่างนี้ ตอนนี้เรามี ~/nn/animals/animals.cfg
3. สร้างไฟล์ข้อความanimals.namesในโฟลเดอร์เดียวกับที่คุณวางไฟล์การกำหนดค่า ในตัวอย่างนี้ ตอนนี้เรามี ~/nn/animals/animals.names
4. ใช้โปรแกรมแก้ไขข้อความเพื่อแก้ไขไฟล์animals.names ระบุหมวดหมู่ที่คุณต้องการใช้ คุณต้องมีหนึ่งรายการต่อบรรทัด และไม่มีบรรทัดว่างหรือความคิดเห็น ในตัวอย่างนี้ ไฟล์ .names จะมี 4 บรรทัดพอดี:
-
สุนัข
แมว
นก
ม้า
-
5. สร้างไฟล์ข้อความanimals.dataในโฟลเดอร์เดียวกัน ในตัวอย่างนี้ ไฟล์ .data จะประกอบด้วย:
-
คลาส=4
train=/home/username/nn/animals/animals_train.txt
valid=/home/username/nn/animals/animals_valid.txt
ชื่อ=/home/ชื่อผู้ใช้/nn/animals/animals.names
backup=/home/username/nn/animals
-
6. สร้างโฟลเดอร์เพื่อจัดเก็บรูปภาพและคำอธิบายประกอบของคุณ ตัวอย่างเช่น อาจเป็น ~/nn/animals/dataset รูปภาพแต่ละรูปต้องมีไฟล์ .txt ที่เกี่ยวข้องซึ่งอธิบายคำอธิบายประกอบสำหรับรูปภาพนั้น รูปแบบของไฟล์ความคิดเห็น .txt มีความเฉพาะเจาะจงมาก คุณไม่สามารถสร้างไฟล์เหล่านี้ด้วยตนเองได้ เนื่องจากคำอธิบายประกอบแต่ละรายการจำเป็นต้องมีพิกัดที่แม่นยำของคำอธิบายประกอบ ดู DarkMark หรือซอฟต์แวร์อื่นที่คล้ายคลึงกันเพื่อใส่คำอธิบายประกอบภาพของคุณ รูปแบบคำอธิบายประกอบ YOLO มีอธิบายอยู่ใน Darknet/YOLO FAQ
7. สร้างไฟล์ข้อความ "train" และ "valid" ที่มีชื่ออยู่ในไฟล์ .data ไฟล์ข้อความทั้งสองนี้จำเป็นต้องแสดงรายการรูปภาพทั้งหมดที่ Darknet ต้องใช้สำหรับการฝึกอบรมและการตรวจสอบ (เมื่อคำนวณ mAP%) ตามลำดับ หนึ่งภาพต่อแถว เส้นทางและชื่อไฟล์อาจเป็นแบบสัมพัทธ์หรือแบบสัมบูรณ์ก็ได้
8. ใช้โปรแกรมแก้ไขข้อความเพื่อแก้ไขไฟล์ .cfg ของคุณ
9. ตรวจสอบให้แน่ใจว่าชุด = 64
10. ให้ความสนใจกับเขตการปกครอง ขึ้นอยู่กับขนาดเครือข่ายและจำนวนหน่วยความจำที่มีอยู่ใน GPU คุณอาจต้องเพิ่มการแบ่งย่อย ค่าที่ดีที่สุดที่จะใช้คือ 1 ดังนั้นให้เริ่มต้นด้วย 1 หาก 1 ไม่ได้ผลสำหรับคุณ โปรดดูคำถามที่พบบ่อยของ Darknet/YOLO
11. โปรดทราบว่า maxbatches=.... ค่าที่ดีในการเริ่มต้นคือ 2,000 เท่าของจำนวนหมวดหมู่ ในตัวอย่างนี้ เรามีสัตว์ 4 ตัว ดังนั้น 4 * 2000 = 8000 ซึ่งหมายความว่าเราจะใช้ maxbatches=8000
12. หมายเหตุขั้นตอน=.... ควรตั้งค่าเป็น 80% และ 90% ของ maxbatches ในตัวอย่างนี้ เนื่องจาก maxbatches ถูกตั้งค่าเป็น 8000 เราจะใช้ขั้นตอน = 6400,7200
13. โปรดทราบว่า width=... และ height=.... เหล่านี้เป็นขนาดเครือข่าย คำถามที่พบบ่อยเกี่ยวกับ Darknet/YOLO อธิบายวิธีคำนวณขนาดที่เหมาะสมที่สุดที่จะใช้
14. ค้นหาส่วน [convolutional] สำหรับ class ทั้งหมด=... บรรทัดก่อนส่วน [yolo] และแก้ไขด้วยจำนวนคลาสจากไฟล์ .names ในตัวอย่างนี้เราจะใช้ class=4
15. ค้นหาตัวกรองทั้งหมด=... บรรทัดในส่วน [convolutional] ก่อนแต่ละส่วน [yolo] ค่าที่ใช้คือ (จำนวนหมวด + 5) 3. ซึ่งหมายความว่าในตัวอย่างนี้ (4 + 5) 3 = 27 ดังนั้นเราจึงใช้ตัวกรอง=27 ในบรรทัดที่เหมาะสม
เริ่มฝึก! รันคำสั่งต่อไปนี้:
`ทุบตี
ซีดี ~/nn/สัตว์/
เครื่องตรวจจับ darknet -map -dont_show รถไฟanimals.dataanimals.cfg
-
โปรดรอ. ตุ้มน้ำหนักที่ดีที่สุดจะถูกบันทึกเป็นanimals_best.weights คุณสามารถติดตามความคืบหน้าของการฝึกอบรมได้โดยการดูไฟล์ Chart.png ดูคำถามที่พบบ่อยของ Darknet/YOLO สำหรับพารามิเตอร์เพิ่มเติมที่คุณอาจต้องการใช้เมื่อฝึกเครือข่ายใหม่
หากคุณต้องการดูรายละเอียดเพิ่มเติมระหว่างการฝึก ให้เพิ่มพารามิเตอร์ --verbose ตัวอย่างเช่น:
`ทุบตี
เครื่องตรวจจับ darknet -map -dont_show --verbose รถไฟanimals.dataanimals.cfg
-
เครื่องมือและลิงค์อื่นๆ
ในการจัดการโปรเจ็กต์ Darknet/YOLO ของคุณ ใส่คำอธิบายประกอบรูปภาพ ตรวจสอบคำอธิบายประกอบของคุณ และสร้างไฟล์ที่จำเป็นในการฝึกกับ Darknet โปรดดู DarkMark
สำหรับ CLI ทางเลือกที่ทรงพลังแทน Darknet การใช้การจัดเรียงรูปภาพ การติดตามวัตถุในวิดีโอของคุณ หรือสำหรับ C++ API อันทรงพลังที่สามารถใช้งานได้ง่ายในแอปพลิเคชันเชิงพาณิชย์ โปรดดู DarkHelp
ดูว่าคำถามที่พบบ่อยของ Darknet/YOLO สามารถช่วยตอบคำถามของคุณได้หรือไม่
ลองดูบทแนะนำและวิดีโอตัวอย่างมากมายในช่อง YouTube ของ Stéphane
หากคุณมีคำถามหรือต้องการสนทนากับผู้ใช้ Darknet/YOLO คนอื่นๆ โปรดเข้าร่วมเซิร์ฟเวอร์ Darknet/YOLO Discord
แผนงาน
อัปเดตล่าสุด: 30-10-2024:
สมบูรณ์
1. แทนที่ qsort() ที่ใช้ระหว่างการฝึกด้วย std::sort()