개체 감지 및 인스턴스 분할은 Computer Vision에서 가장 중요한 애플리케이션입니다. 그러나 작은 물체의 감지와 큰 이미지의 추론은 실제 사용에서 여전히 개선이 필요합니다. 개발자가 다양한 비전 유틸리티를 사용하여 이러한 실제 문제를 극복할 수 있도록 SAHI가 제공됩니다.
명령 | 설명 |
---|---|
예측하다 | Ultralytics/mmdet/Detectron2/huggingface/Torchvision 모델을 사용하여 슬라이스/표준 비디오/이미지 예측을 수행합니다. |
50세를 예측하다 | Ultralytics/mmdet/Detectron2/huggingface/Torchvision 모델을 사용하여 슬라이스/표준 예측을 수행하고 501 앱에서 결과 탐색 |
코코 슬라이스 | COCO 주석 및 이미지 파일을 자동으로 슬라이스 |
코코 피십일 | 오감지 수에 따라 정렬된 501개의 UI를 사용하여 COCO 데이터 세트에 대한 여러 예측 결과 탐색 |
코코 평가 | 주어진 예측과 근거 진실에 대해 클래스별 COCO AP 및 AR을 평가합니다. |
코코 분석하다 | 많은 오류 분석 플롯을 계산하고 내보냅니다. |
코코 욜로프5 | 모든 COCO 데이터세트를 Ultralytics 형식으로 자동 변환 |
SAHI를 인용한 출판물 목록(현재 200개 이상)
? SAHI를 사용한 대회 우승자 목록
SAHI 소개
공식논문(ICIP 2022 구두)
사전 훈련된 가중치 및 ICIP 2022 종이 파일
FiftyOne을 사용하여 SAHI 예측 시각화 및 평가(2024)(신규)
'learnopencv.com'의 'SAHI 탐색' 연구 기사
'비디오 튜토리얼: 작은 물체 감지를 위한 슬라이싱 지원 하이퍼 추론 - SAHI'(권장)
비디오 추론 지원이 실시간으로 제공됩니다.
캐글 노트북
위성 물체 감지
오류 분석 플롯 및 평가(권장)
대화형 결과 시각화 및 검사(권장)
COCO 데이터 세트 변환
슬라이싱 작업 수첩
YOLOX
+ SAHI
데모: (권장)
RT-DETR
+ SAHI
연습: (신규)
YOLOv8
+ SAHI
연습:
DeepSparse
+ SAHI
연습:
HuggingFace
+ SAHI
연습:
YOLOv5
+ SAHI
연습:
MMDetection
+ SAHI
연습:
Detectron2
+ SAHI
연습:
TorchVision
+ SAHI
연습:
sahi
설치합니다. pip install sahi
Shapely
설치해야 합니다. conda install -c conda-forge shapely
conda install pytorch=1.10.2 torchvision=0.11.3 cudatoolkit=11.3 -c pytorch
conda install pytorch=1.13.1 torchvision=0.14.1 pytorch-cuda=11.7 -c pytorch -c nvidia
pip install yolov5==7.0.13
pip install ultralytics==8.0.207
pip install mim
mim install mmdet==3.0.0
pip install detectron2 -f https://dl.fbaipublicfiles.com/detectron2/wheels/cu113/torch1.10/index.html
pip install transformers timm
pip install super-gradients==3.3.1
cli.md에서 sahi predict
명령에 대한 자세한 정보를 찾아보세요.
비디오 추론 튜토리얼에서 비디오 추론에 대한 자세한 정보를 찾아보세요.
slicing.md에서 이미지/데이터세트 슬라이싱 유틸리티에 대한 자세한 정보를 찾아보세요.
오류 분석 플롯 및 평가에서 자세한 정보를 찾아보세요.
대화형 결과 시각화 및 검사에서 자세한 정보를 찾아보세요.
coco.md에서 COCO 유틸리티(yolov5 변환, 슬라이싱, 서브샘플링, 필터링, 병합, 분할)에 대한 자세한 정보를 찾아보세요.
mot.md에서 MOT 유틸리티(지상 데이터 세트 생성, mot 챌린지 형식으로 추적기 메트릭 내보내기)에 대한 자세한 정보를 찾아보세요.
이 패키지를 작업에 사용하는 경우 다음과 같이 인용해 주세요.
@article{akyon2022sahi,
title={Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection},
author={Akyon, Fatih Cagatay and Altinuc, Sinan Onur and Temizel, Alptekin},
journal={2022 IEEE International Conference on Image Processing (ICIP)},
doi={10.1109/ICIP46576.2022.9897990},
pages={966-970},
year={2022}
}
@software{obss2021sahi,
author = {Akyon, Fatih Cagatay and Cengiz, Cemil and Altinuc, Sinan Onur and Cavusoglu, Devrim and Sahin, Kadir and Eryuksel, Ogulcan},
title = {{SAHI: A lightweight vision library for performing large scale object detection and instance segmentation}},
month = nov,
year = 2021,
publisher = {Zenodo},
doi = {10.5281/zenodo.5718950},
url = {https://doi.org/10.5281/zenodo.5718950}
}
sahi
라이브러리는 현재 모든 YOLOv5 모델, MMDetection 모델, Detectron2 모델 및 HuggingFace 객체 감지 모델을 지원합니다. 게다가 새로운 프레임워크를 추가하는 것도 쉽습니다.
해야 할 일은 sahi/models/ 폴더 아래에 새 .py 파일을 만들고 해당 .py 파일에 탐지 모델 클래스를 구현하는 새 클래스를 만드는 것뿐입니다. MMDetection 래퍼 또는 YOLOv5 래퍼를 참조로 사용할 수 있습니다.
PR을 시작하기 전:
pip install -e . " [dev] "
python -m scripts.run_code_style format
파티 카가타이 아키온
시난 오누르 알티누크
데브림 카부소글루
세밀 센기즈
오굴칸 에류크셀
카디르 나르
부락 마덴
푸시팩 보게
M. 캔 V.
크리스토퍼 에들런드
이슈워르
메멧 에세빗
카디르 사힌
웨이
영재
알즈베타 투레코바
소 우치다
권용혜
네빌
Janne Mäyrä
크리스토퍼 에들런드
일커 마냅
응웬테안(Nguyễn Thế An)
웨이지
아이누르 수수즈
프라나브 두라이
락샤이 메라
칼 조안 알레스마
제이콥 마크스
윌리엄 폐
아모그 달리왈