تنفيذ PyTorch الرسمي لـ YOLOv10 . نيوريبس 2024.
مقارنات مع الآخرين من حيث مقايضات دقة زمن الوصول (يسار) ودقة الحجم (يمين).
YOLOv10: الكشف الفوري عن الأشياء من البداية إلى النهاية.
آو وانغ، وهوي تشين، وليهاو ليو، وكاي تشين، وزيجيا لين، وجونغونغ هان، وجويغوانغ دينغ
cv2
و cv3
غير الضرورية في v10Detect
أثناء الاستدلال.كوكو
نموذج | حجم الاختبار | #بارامس | يتخبط | ا ف ب فال | كمون |
---|---|---|---|---|---|
YOLOv10-N | 640 | 2.3 م | 6.7 جرام | 38.5% | 1.84 مللي ثانية |
YOLOv10-S | 640 | 7.2 م | 21.6 جرام | 46.3% | 2.49 مللي ثانية |
YOLOv10-M | 640 | 15.4 م | 59.1 جرام | 51.1% | 4.74 مللي ثانية |
YOLOv10-B | 640 | 19.1 م | 92.0 جرام | 52.5% | 5.74 مللي ثانية |
يولوv10-L | 640 | 24.4 م | 120.3 جرام | 53.2% | 7.28 مللي ثانية |
YOLOv10-X | 640 | 29.5 م | 160.4 جرام | 54.4% | 10.70 مللي ثانية |
يوصى باستخدام بيئة conda
الافتراضية.
conda create -n yolov10 python=3.9
conda activate yolov10
pip install -r requirements.txt
pip install -e .
python app.py
# Please visit http://127.0.0.1:7860
yolov10n
yolov10s
yolov10m
yolov10b
yolov10l
yolov10x
yolo val model=jameslahm/yolov10{n/s/m/b/l/x} data=coco.yaml batch=256
أو
from ultralytics import YOLOv10
model = YOLOv10 . from_pretrained ( 'jameslahm/yolov10{n/s/m/b/l/x}' )
# or
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10 ( 'yolov10{n/s/m/b/l/x}.pt' )
model . val ( data = 'coco.yaml' , batch = 256 )
yolo detect train data=coco.yaml model=yolov10n/s/m/b/l/x.yaml epochs=500 batch=256 imgsz=640 device=0,1,2,3,4,5,6,7
أو
from ultralytics import YOLOv10
model = YOLOv10 ()
# If you want to finetune the model with pretrained weights, you could load the
# pretrained weights like below
# model = YOLOv10.from_pretrained('jameslahm/yolov10{n/s/m/b/l/x}')
# or
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
# model = YOLOv10('yolov10{n/s/m/b/l/x}.pt')
model . train ( data = 'coco.yaml' , epochs = 500 , batch = 256 , imgsz = 640 )
اختياريًا، يمكنك دفع النموذج الذي تم ضبطه بدقة إلى مركز Hugging Face كنموذج عام أو خاص:
# let's say you have fine-tuned a model for crop detection
model . push_to_hub ( " )
# you can also pass `private=True` if you don't want everyone to see your model
model . push_to_hub ( " , private = True )
لاحظ أنه يمكن تعيين عتبة ثقة أصغر لاكتشاف الأجسام أو الكائنات الأصغر حجمًا على مسافة. يرجى الرجوع هنا للحصول على التفاصيل.
yolo predict model=jameslahm/yolov10{n/s/m/b/l/x}
أو
from ultralytics import YOLOv10
model = YOLOv10 . from_pretrained ( 'jameslahm/yolov10{n/s/m/b/l/x}' )
# or
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10 ( 'yolov10{n/s/m/b/l/x}.pt' )
model . predict ()
# End-to-End ONNX
yolo export model=jameslahm/yolov10{n/s/m/b/l/x} format=onnx opset=13 simplify
# Predict with ONNX
yolo predict model=yolov10n/s/m/b/l/x.onnx
# End-to-End TensorRT
yolo export model=jameslahm/yolov10{n/s/m/b/l/x} format=engine half=True simplify opset=13 workspace=16
# or
trtexec --onnx=yolov10n/s/m/b/l/x.onnx --saveEngine=yolov10n/s/m/b/l/x.engine --fp16
# Predict with TensorRT
yolo predict model=yolov10n/s/m/b/l/x.engine
أو
from ultralytics import YOLOv10
model = YOLOv10 . from_pretrained ( 'jameslahm/yolov10{n/s/m/b/l/x}' )
# or
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10 ( 'yolov10{n/s/m/b/l/x}.pt' )
model . export (...)
تم إنشاء قاعدة التعليمات البرمجية باستخدام Ultralytics وRT-DETR.
شكرا للتطبيقات العظيمة!
إذا كانت التعليمات البرمجية أو النماذج الخاصة بنا تساعدك في عملك، فيرجى الاستشهاد بمقالتنا:
@article { wang2024yolov10 ,
title = { YOLOv10: Real-Time End-to-End Object Detection } ,
author = { Wang, Ao and Chen, Hui and Liu, Lihao and Chen, Kai and Lin, Zijia and Han, Jungong and Ding, Guiguang } ,
journal = { arXiv preprint arXiv:2405.14458 } ,
year = { 2024 }
}