中文 | เกาหลี | ภาษาญี่ปุ่น | รัสสกี้ | เยอรมัน | ฝรั่งเศส | ภาษาสเปน | ภาษาโปรตุเกส | เตอร์กเช่ | Tiếng Viết | العربية
YOLOv5 ? คือ Vision AI ที่ได้รับความนิยมมากที่สุดในโลก โดยนำเสนอการวิจัยโอเพ่นซอร์สของ Ultralytics เกี่ยวกับวิธีการใช้ Vision AI ในอนาคต โดยผสมผสานบทเรียนที่ได้รับและแนวทางปฏิบัติที่ดีที่สุดที่พัฒนามาเป็นเวลาหลายพันชั่วโมงในการวิจัยและพัฒนา
เราหวังว่าแหล่งข้อมูลที่นี่จะช่วยให้คุณได้รับประโยชน์สูงสุดจาก YOLOv5 โปรดเรียกดูเอกสาร YOLOv5 เพื่อดูรายละเอียด แจ้งปัญหาบน GitHub เพื่อรับการสนับสนุน และเข้าร่วมชุมชน Discord ของเราสำหรับคำถามและการอภิปราย!
หากต้องการขอสิทธิ์ใช้งานระดับองค์กร โปรดกรอกแบบฟอร์มที่ Ultralytics Licensing
โยโล11 ? ใหม่
เรารู้สึกตื่นเต้นที่จะเปิดตัว Ultralytics YOLO11 ? ซึ่งเป็นความก้าวหน้าล่าสุดในโมเดลวิสัยทัศน์ที่ล้ำสมัย (SOTA) ของเรา! พร้อมใช้งานแล้วที่ GitHub YOLO11 สร้างขึ้นจากมรดกด้านความเร็ว ความแม่นยำ และความสะดวกในการใช้งาน ไม่ว่าคุณจะจัดการกับการตรวจจับวัตถุ การแบ่งส่วนรูปภาพ หรือการจำแนกรูปภาพ YOLO11 มอบประสิทธิภาพและความคล่องตัวที่จำเป็นเพื่อให้เป็นเลิศในการใช้งานที่หลากหลาย
เริ่มต้นวันนี้และปลดล็อคศักยภาพสูงสุดของ YOLO11! ไปที่ Ultralytics Docs เพื่อดูคำแนะนำและแหล่งข้อมูลที่ครอบคลุม:
pip ติดตั้ง ultralytics
เอกสารประกอบ
ดูเอกสาร YOLOv5 สำหรับเอกสารฉบับเต็มเกี่ยวกับการฝึกอบรม การทดสอบ และการปรับใช้ ดูตัวอย่างการเริ่มต้นอย่างรวดเร็วด้านล่าง
โคลน repo และติดตั้งข้อกำหนด.txt ในสภาพแวดล้อม Python>=3.8.0 รวมถึง PyTorch>=1.8
คอมไพล์โคลน https://github.com/ultralytics/yolov5 # clonecd yolov5 pip ติดตั้ง -r ข้อกำหนด.txt # ติดตั้ง
การอนุมาน YOLOv5 PyTorch Hub โมเดลจะดาวน์โหลดโดยอัตโนมัติจาก YOLOv5 รุ่นล่าสุด
นำเข้าไฟฉาย # Modelmodel = torch.hub.load("ultralytics/yolov5", "yolov5s") # หรือ yolov5n - yolov5x6, custom# Imagesimg = "https://ultralytics.com/images/zidane.jpg" # หรือไฟล์ เส้นทาง, PIL, OpenCV, numpy, list# Inferenceresults = model(img)# Resultsresults.print() # หรือ .show(), .save(), .crop(), .pandas() ฯลฯ
detect.py
รันการอนุมานบนแหล่งที่มาที่หลากหลาย ดาวน์โหลดโมเดลโดยอัตโนมัติจาก YOLOv5 รุ่นล่าสุด และบันทึกผลลัพธ์เพื่อ runs/detect
python detector.py --weights yolov5s.pt --source 0 # เว็บแคม img.jpg #รูปภาพ vid.mp4 #วิดีโอ หน้าจอ # ภาพหน้าจอ เส้นทาง/ # ไดเร็กทอรี list.txt # รายการรูปภาพ list.streams # รายการสตรีม 'path/*.jpg' # glob 'https://youtu.be/LNwODJXcvt4' # YouTube 'rtsp://example.com/media.mp4' # RTSP, RTMP, สตรีม HTTP
คำสั่งด้านล่างจะสร้างผลลัพธ์ YOLOv5 COCO โมเดลและชุดข้อมูลจะดาวน์โหลดโดยอัตโนมัติจาก YOLOv5 รุ่นล่าสุด เวลาการฝึกอบรมสำหรับ YOLOv5n/s/m/l/x คือ 1/2/4/6/8 วันบน V100 GPU (หลาย GPU เร็วขึ้น) ใช้ --batch-size
ที่ใหญ่ที่สุดที่เป็นไปได้ หรือส่ง --batch-size -1
สำหรับ YOLOv5 AutoBatch ขนาดแบทช์ที่แสดงสำหรับ V100-16GB
หลาม train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5n.yaml --batch-size 128 yolov5s 64 โยลอฟ5ม. 40 โยลอฟ5ล 24 โยลอฟ5x 16
ฝึกข้อมูลที่กำหนดเอง ? ที่แนะนำ
เคล็ดลับเพื่อผลลัพธ์การฝึกที่ดีที่สุด ☘️
การฝึกอบรมหลาย GPU
ไพทอร์ชฮับ ? ใหม่
TFLite, ONNX, CoreML, TensorRT ส่งออก ?
การปรับใช้แพลตฟอร์ม NVIDIA Jetson ? ใหม่
การเสริมเวลาทดสอบ (TTA)
การประกอบโมเดล
การตัดแต่งกิ่งแบบจำลอง/ความกระจัดกระจาย
วิวัฒนาการของไฮเปอร์พารามิเตอร์
ถ่ายทอดการเรียนรู้ด้วย Frozen Layers
สรุปสถาปัตยกรรม ? ใหม่
Ultralytics HUB เพื่อฝึกอบรมและปรับใช้ YOLO ? ที่แนะนำ
การบันทึก ClearML
YOLOv5 พร้อม Deepsparse ของ Neural Magic
การบันทึกดาวหาง ? ใหม่
บูรณาการ
การบูรณาการที่สำคัญของเรากับแพลตฟอร์ม AI ชั้นนำจะขยายฟังก์ชันการทำงานของข้อเสนอของ Ultralytics ปรับปรุงงานต่างๆ เช่น การติดฉลากชุดข้อมูล การฝึกอบรม การแสดงภาพ และการจัดการแบบจำลอง ค้นพบว่า Ultralytics ร่วมมือกับ W&B, Comet, Roboflow และ OpenVINO สามารถเพิ่มประสิทธิภาพเวิร์กโฟลว์ AI ของคุณได้อย่างไร
Ultralytics HUB ? | ดับเบิลยูแอนด์บี | ดาวหาง ⭐ ใหม่ | เวทมนตร์ประสาท |
---|---|---|---|
ปรับปรุงเวิร์กโฟลว์ YOLO: ติดป้าย ฝึกอบรม และปรับใช้ได้อย่างง่ายดายด้วย Ultralytics HUB ลองตอนนี้! | ติดตามการทดลอง ไฮเปอร์พารามิเตอร์ และผลลัพธ์ด้วยน้ำหนักและอคติ | ฟรีตลอดไป Comet ให้คุณบันทึกโมเดล YOLOv5 ฝึกต่อ และแสดงภาพและแก้ไขการคาดการณ์แบบโต้ตอบได้ | รันการอนุมาน YOLO11 เร็วขึ้นสูงสุด 6 เท่าด้วย Neural Magic DeepSparse |
Ultralytics HUB
สัมผัสประสบการณ์ AI ที่ราบรื่นด้วย Ultralytics HUB ⭐ โซลูชันครบวงจรสำหรับการแสดงภาพข้อมูล YOLOv5 และ YOLOv8 ? การฝึกอบรมโมเดลและการปรับใช้โดยไม่ต้องเขียนโค้ดใดๆ เปลี่ยนภาพให้เป็นข้อมูลเชิงลึกที่นำไปใช้ได้จริง และทำให้วิสัยทัศน์ AI ของคุณเป็นจริงได้อย่างง่ายดายโดยใช้แพลตฟอร์มล้ำสมัยและแอป Ultralytics ที่ใช้งานง่ายของเรา เริ่มการเดินทางของคุณ ฟรี ทันที!
ทำไมต้อง YOLOv5
YOLOv5 ได้รับการออกแบบมาให้เริ่มต้นและเรียนรู้ได้ง่ายมาก เราให้ความสำคัญกับผลลัพธ์ในโลกแห่งความเป็นจริง
COCO AP val หมายถึงตัววัด [email protected]:0.95 ที่วัดบนชุดข้อมูล COCO val2017 จำนวน 5,000 ภาพในขนาดการอนุมานต่างๆ ตั้งแต่ 256 ถึง 1536
ความเร็ว GPU วัดเวลาอนุมานเฉลี่ยต่อภาพบนชุดข้อมูล COCO val2017 โดยใช้อินสแตนซ์ AWS p3.2xlarge V100 ที่ขนาดแบตช์ 32
ข้อมูล EfficientDet จาก google/automl ที่ขนาดแบตช์ 8
ทำซ้ำ โดย python val.py --task study --data coco.yaml --iou 0.7 --weights yolov5n6.pt yolov5s6.pt yolov5m6.pt yolov5l6.pt yolov5x6.pt
แบบอย่าง | ขนาด (พิกเซล) | มูลค่า mAP 50-95 | มูลค่า mAP 50 | ความเร็ว ซีพียู b1 (มิลลิวินาที) | ความเร็ว วี100บี1 (มิลลิวินาที) | ความเร็ว V100b32 (มิลลิวินาที) | พารามิเตอร์ (ม) | ฟลอป @640 (บี) |
---|---|---|---|---|---|---|---|---|
YOLOv5n | 640 | 28.0 | 45.7 | 45 | 6.3 | 0.6 | 1.9 | 4.5 |
YOLOv5s | 640 | 37.4 | 56.8 | 98 | 6.4 | 0.9 | 7.2 | 16.5 |
YOLOv5m | 640 | 45.4 | 64.1 | 224 | 8.2 | 1.7 | 21.2 | 49.0 |
YOLOv5l | 640 | 49.0 | 67.3 | 430 | 10.1 | 2.7 | 46.5 | 109.1 |
YOLOv5x | 640 | 50.7 | 68.9 | 766 | 12.1 | 4.8 | 86.7 | 205.7 |
YOLOv5n6 | 1280 | 36.0 | 54.4 | 153 | 8.1 | 2.1 | 3.2 | 4.6 |
YOLOv5s6 | 1280 | 44.8 | 63.7 | 385 | 8.2 | 3.6 | 12.6 | 16.8 |
โยโลฟ5m6 | 1280 | 51.3 | 69.3 | 887 | 11.1 | 6.8 | 35.7 | 50.0 |
โยโลฟ5l6 | 1280 | 53.7 | 71.3 | พ.ศ. 2327 | 15.8 | 10.5 | 76.8 | 111.4 |
โยโลฟ5x6 + ทีทีเอ | 1280 1536 | 55.0 55.8 | 72.7 72.7 | 3136 - | 26.2 - | 19.4 - | 140.7 - | 209.8 - |
จุดตรวจทั้งหมดได้รับการฝึกฝนถึง 300 ยุคด้วยการตั้งค่าเริ่มต้น รุ่น Nano และ Small ใช้ hyp.scratch-low.yaml hyps ส่วนรุ่นอื่นๆ ทั้งหมดใช้ hyp.scratch-high.yaml
ค่า mAP val ใช้สำหรับโมเดลเดี่ยวขนาดเดียวบนชุดข้อมูล COCO val2017
ทำซ้ำโดย python val.py --data coco.yaml --img 640 --conf 0.001 --iou 0.65
ความเร็ว เฉลี่ยเหนืออิมเมจ COCO โดยใช้อินสแตนซ์ AWS p3.2xlarge ไม่รวมเวลา NMS (~1 ms/img)
ทำซ้ำโดย python val.py --data coco.yaml --img 640 --task speed --batch 1
การเพิ่มเวลาทดสอบ TTA รวมถึงการสะท้อนและการเสริมขนาด
ทำซ้ำโดย python val.py --data coco.yaml --img 1536 --iou 0.7 --augment
การแบ่งส่วน
โมเดลการแบ่งส่วนอินสแตนซ์ YOLOv5 v7.0 ใหม่ของเรานั้นเร็วและแม่นยำที่สุดในโลก เหนือกว่าการวัดประสิทธิภาพ SOTA ในปัจจุบันทั้งหมด เราได้ทำให้การฝึกอบรม ตรวจสอบ และปรับใช้เป็นเรื่องง่ายมาก ดูรายละเอียดทั้งหมดในบันทึกประจำรุ่นของเรา และเยี่ยมชม YOLOv5 Segmentation Colab Notebook ของเราเพื่อดูบทช่วยสอนเริ่มต้นอย่างรวดเร็ว
เราฝึกโมเดลการแบ่งเซ็กเมนต์ YOLOv5 บน COCO เป็นเวลา 300 epochs ที่ขนาดรูปภาพ 640 โดยใช้ A100 GPU เราส่งออกโมเดลทั้งหมดไปยัง ONNX FP32 สำหรับการทดสอบความเร็วของ CPU และไปยัง TensorRT FP16 สำหรับการทดสอบความเร็วของ GPU เราทำการทดสอบความเร็วทั้งหมดในโน้ตบุ๊ก Google Colab Pro เพื่อให้ทำซ้ำได้ง่าย
แบบอย่าง | ขนาด (พิกเซล) | กล่อง แมพ 50-95 | หน้ากาก แมป 50-95 | เวลารถไฟ 300 ยุค A100 (ชั่วโมง) | ความเร็ว ซีพียู ONNX (มิลลิวินาที) | ความเร็ว ทีอาร์ที A100 (มิลลิวินาที) | พารามิเตอร์ (ม) | ฟลอป @640 (บี) |
---|---|---|---|---|---|---|---|---|
YOLOv5n-seg | 640 | 27.6 | 23.4 | 80:17 | 62.7 | 1.2 | 2.0 | 7.1 |
YOLOv5s-seg | 640 | 37.6 | 31.7 | 88:16 | 173.3 | 1.4 | 7.6 | 26.4 |
YOLOv5m-seg | 640 | 45.0 | 37.1 | 108:36 | 427.0 | 2.2 | 22.0 | 70.8 |
YOLOv5l-seg | 640 | 49.0 | 39.9 | 66:43 (2x) | 857.4 | 2.9 | 47.9 | 147.7 |
YOLOv5x-seg | 640 | 50.7 | 41.4 | 62:56 (3x) | 1579.2 | 4.5 | 88.8 | 265.7 |
จุดตรวจทั้งหมดได้รับการฝึกฝนถึง 300 ยุคด้วยเครื่องมือเพิ่มประสิทธิภาพ SGD พร้อม lr0=0.01
และ weight_decay=5e-5
ที่ขนาดภาพ 640 และการตั้งค่าเริ่มต้นทั้งหมด
เรียกใช้บันทึกไปที่ https://wandb.ai/glenn-jocher/YOLOv5_v70_official
ค่า ความแม่นยำ มีไว้สำหรับรุ่นเดี่ยวขนาดเดียวบนชุดข้อมูล COCO
ทำซ้ำโดย python segment/val.py --data coco.yaml --weights yolov5s-seg.pt
ความเร็ว เฉลี่ยมากกว่า 100 รูปภาพอนุมานโดยใช้อินสแตนซ์ Colab Pro A100 High-RAM ค่าระบุความเร็วการอนุมานเท่านั้น (NMS เพิ่มประมาณ 1 มิลลิวินาทีต่อภาพ)
ทำซ้ำโดย python segment/val.py --data coco.yaml --weights yolov5s-seg.pt --batch 1
ส่งออก ไปยัง ONNX ที่ FP32 และ TensorRT ที่ FP16 ทำด้วย export.py
ทำซ้ำโดย python export.py --weights yolov5s-seg.pt --include engine --device 0 --half
การฝึกอบรมการแบ่งส่วน YOLOv5 รองรับการดาวน์โหลดชุดข้อมูลการแบ่งส่วน COCO128-seg โดยอัตโนมัติด้วยอาร์กิวเมนต์ --data coco128-seg.yaml
และการดาวน์โหลดชุดข้อมูล COCO-segments ด้วยตนเองด้วย bash data/scripts/get_coco.sh --train --val --segments
จากนั้น python train.py --data coco.yaml
# ส่วน GPUpython เดี่ยว / train.py --data coco128-seg.yaml --weights yolov5s-seg.pt --img 640# Multi-GPU DDPpython -m torch.distributed.run --nproc_per_node 4 --master_port 1 เซ็กเมนต์ /train.py --data coco128-seg.yaml --น้ำหนัก yolov5s-seg.pt --img 640 --อุปกรณ์ 0,1,2,3
ตรวจสอบ mAP มาสก์ YOLOv5s-seg บนชุดข้อมูล COCO:
bash data/scripts/get_coco.sh --val --segments # ดาวน์โหลด COCO val เซกเมนต์แยก (780MB, 5,000 ภาพ) python Segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # ตรวจสอบความถูกต้อง
ใช้ YOLOv5m-seg.pt ที่ได้รับการฝึกล่วงหน้าเพื่อทำนาย bus.jpg:
ส่วนหลาม /predict.py --น้ำหนัก yolov5m-seg.pt --แหล่งข้อมูล/ภาพ/bus.jpg
model = torch.hub.load( "ultralytics/yolov5", "custom", "yolov5m-seg.pt") # โหลดจาก PyTorch Hub (คำเตือน: ยังไม่รองรับการอนุมาน)
ส่งออกโมเดล YOLOv5s-seg ไปยัง ONNX และ TensorRT:
python send.py --weights yolov5s-seg.pt -- รวมเอ็นจิ้น onnx --img 640 --device 0
การจำแนกประเภท
YOLOv5 release v6.2 นำการสนับสนุนสำหรับการฝึกโมเดลการจำแนกประเภท การตรวจสอบ และการปรับใช้! ดูรายละเอียดทั้งหมดในบันทึกประจำรุ่นของเรา และเยี่ยมชมสมุดบันทึก Colab การจัดหมวดหมู่ YOLOv5 ของเราเพื่อดูบทช่วยสอนเริ่มต้นอย่างรวดเร็ว
เราฝึกโมเดลการจัดหมวดหมู่ YOLOv5-cls บน ImageNet สำหรับ 90 ยุคโดยใช้อินสแตนซ์ 4xA100 และเราฝึกโมเดล ResNet และ EfficientNet ควบคู่ไปกับการตั้งค่าการฝึกเริ่มต้นเดียวกันเพื่อเปรียบเทียบ เราส่งออกโมเดลทั้งหมดไปยัง ONNX FP32 สำหรับการทดสอบความเร็วของ CPU และไปยัง TensorRT FP16 สำหรับการทดสอบความเร็วของ GPU เราทำการทดสอบความเร็วทั้งหมดบน Google Colab Pro เพื่อให้ทำซ้ำได้ง่าย
แบบอย่าง | ขนาด (พิกเซล) | ตามมาตรฐาน ท็อป1 | ตามมาตรฐาน ท็อป5 | การฝึกอบรม 90 ยุค 4xA100 (ชั่วโมง) | ความเร็ว ซีพียู ONNX (มิลลิวินาที) | ความเร็ว เทนเซอร์RT V100 (มิลลิวินาที) | พารามิเตอร์ (ม) | ฟลอป @224 (บี) |
---|---|---|---|---|---|---|---|---|
YOLOv5n-cls | 224 | 64.6 | 85.4 | 7:59 | 3.3 | 0.5 | 2.5 | 0.5 |
YOLOv5s-cls | 224 | 71.5 | 90.2 | 8:09 | 6.6 | 0.6 | 5.4 | 1.4 |
YOLOv5m-cls | 224 | 75.9 | 92.9 | 10:06 | 15.5 | 0.9 | 12.9 | 3.9 |
YOLOv5l-cls | 224 | 78.0 | 94.0 | 11:56 | 26.9 | 1.4 | 26.5 | 8.5 |
YOLOv5x-cls | 224 | 79.0 | 94.4 | 15:04 | 54.3 | 1.8 | 48.1 | 15.9 |
ResNet18 | 224 | 70.3 | 89.5 | 6:47 | 11.2 | 0.5 | 11.7 | 3.7 |
ResNet34 | 224 | 73.9 | 91.8 | 8:33 | 20.6 | 0.9 | 21.8 | 7.4 |
เรสเน็ต50 | 224 | 76.8 | 93.4 | 11:10 | 23.4 | 1.0 | 25.6 | 8.5 |
เรสเน็ต101 | 224 | 78.5 | 94.3 | 17:10 | 42.1 | 1.9 | 44.5 | 15.9 |
EfficientNet_b0 | 224 | 75.1 | 92.4 | 13:03 | 12.5 | 1.3 | 5.3 | 1.0 |
EfficientNet_b1 | 224 | 76.4 | 93.2 | 17:04 | 14.9 | 1.6 | 7.8 | 1.5 |
EfficientNet_b2 | 224 | 76.6 | 93.4 | 17:10 | 15.9 | 1.6 | 9.1 | 1.7 |
EfficientNet_b3 | 224 | 77.7 | 94.0 | 19:19 | 18.9 | 1.9 | 12.2 | 2.4 |
จุดตรวจทั้งหมดได้รับการฝึกฝนถึง 90 ยุคด้วยเครื่องมือเพิ่มประสิทธิภาพ SGD ด้วย lr0=0.001
และ weight_decay=5e-5
ที่ขนาดภาพ 224 และการตั้งค่าเริ่มต้นทั้งหมด
เรียกใช้บันทึกไปที่ https://wandb.ai/glenn-jocher/YOLOv5-Classifier-v6-2
ค่า ความแม่นยำ มีไว้สำหรับรุ่นเดี่ยวขนาดเดียวบนชุดข้อมูล ImageNet-1k
ทำซ้ำโดย python classify/val.py --data ../datasets/imagenet --img 224
ความเร็ว เฉลี่ยมากกว่า 100 ภาพอนุมานโดยใช้อินสแตนซ์ Google Colab Pro V100 High-RAM
ทำซ้ำโดย python classify/val.py --data ../datasets/imagenet --img 224 --batch 1
ส่งออก ไปยัง ONNX ที่ FP32 และ TensorRT ที่ FP16 ทำด้วย export.py
ทำซ้ำโดย python export.py --weights yolov5s-cls.pt --include engine onnx --imgsz 224
การฝึกอบรมการจัดหมวดหมู่ YOLOv5 รองรับการดาวน์โหลดชุดข้อมูล MNIST, Fashion-MNIST, CIFAR10, CIFAR100, Imagenette, Imagewoof และ ImageNet โดยอัตโนมัติด้วยอาร์กิวเมนต์ --data
หากต้องการเริ่มการฝึกอบรมเกี่ยวกับ MNIST เช่นให้ใช้ --data mnist
# Single-GPUpython จำแนก / train.py --model yolov5s-cls.pt --data cifar100 --epochs 5 --img 224 --batch 128# Multi-GPU DDPpython -m torch.distributed.run --nproc_per_node 4 - -master_port 1 classify/train.py --model yolov5s-cls.pt --data imagenet --epochs 5 --img 224 --อุปกรณ์ 0,1,2,3
ตรวจสอบความถูกต้องของ YOLOv5m-cls บนชุดข้อมูล ImageNet-1k:
bash data/scripts/get_imagenet.sh --val # ดาวน์โหลด ImageNet val split (6.3G, 50,000 ภาพ) python classify/val.py --weights yolov5m-cls.pt --data ../datasets/imagenet --img 224 # ตรวจสอบความถูกต้อง
ใช้ YOLOv5s-cls.pt ที่ได้รับการฝึกล่วงหน้าเพื่อทำนาย bus.jpg:
python จำแนก /predict.py --weights yolov5s-cls.pt --source data/images/bus.jpg
model = torch.hub.load("ultralytics/yolov5", "custom", "yolov5s-cls.pt") # โหลดจาก PyTorch Hub
ส่งออกกลุ่มโมเดล YOLOv5s-cls, ResNet และ EfficientNet ที่ผ่านการฝึกอบรมแล้วไปยัง ONNX และ TensorRT:
หลามส่งออก.py --น้ำหนัก yolov5s-cls.pt resnet50.pt มีประสิทธิภาพnet_b0.pt -- รวมเครื่องยนต์ onnx --img 224
สภาพแวดล้อม
เริ่มต้นใช้งานในไม่กี่วินาทีด้วยสภาพแวดล้อมที่ได้รับการตรวจสอบแล้วของเรา คลิกแต่ละไอคอนด้านล่างเพื่อดูรายละเอียด
มีส่วนช่วย
เราชอบข้อมูลของคุณ! เราต้องการทำให้การมีส่วนร่วมกับ YOLOv5 เป็นเรื่องง่ายและโปร่งใสที่สุดเท่าที่จะเป็นไปได้ โปรดดูคู่มือการมีส่วนร่วมของเราเพื่อเริ่มต้น และกรอกแบบสำรวจ YOLOv5 เพื่อส่งข้อเสนอแนะเกี่ยวกับประสบการณ์ของคุณ ขอขอบคุณผู้ร่วมให้ข้อมูลของเราทุกคน!
ใบอนุญาต
Ultralytics เสนอตัวเลือกสิทธิ์การใช้งานสองตัวเลือกเพื่อรองรับกรณีการใช้งานที่หลากหลาย:
ใบอนุญาต AGPL-3.0 : ใบอนุญาตโอเพ่นซอร์สที่ได้รับการรับรองจาก OSI นี้เหมาะสำหรับนักเรียนและผู้ที่สนใจ โดยส่งเสริมการทำงานร่วมกันแบบเปิดกว้างและการแบ่งปันความรู้ ดูไฟล์ใบอนุญาตสำหรับรายละเอียดเพิ่มเติม
สิทธิ์การใช้งานระดับองค์กร : ออกแบบมาเพื่อการใช้งานเชิงพาณิชย์ สิทธิ์การใช้งานนี้อนุญาตให้รวมซอฟต์แวร์ Ultralytics และโมเดล AI เข้ากับสินค้าและบริการเชิงพาณิชย์ได้อย่างราบรื่น โดยข้ามข้อกำหนดโอเพ่นซอร์สของ AGPL-3.0 หากสถานการณ์ของคุณเกี่ยวข้องกับการฝังโซลูชันของเราในข้อเสนอเชิงพาณิชย์ โปรดติดต่อผ่าน Ultralytics Licensing
ติดต่อ
สำหรับรายงานข้อบกพร่องของ YOLOv5 และคำขอคุณสมบัติ โปรดไปที่ปัญหา GitHub และเข้าร่วมชุมชน Discord ของเราเพื่อสอบถามและพูดคุย!