オブジェクトの検出とインスタンスのセグメンテーションは、コンピューター ビジョンにおける最も重要なアプリケーションです。ただし、小さなオブジェクトの検出と大きな画像の推論は、実際の使用においてはまだ改善の必要があります。 SAHI は、開発者が多くのビジョン ユーティリティでこれらの現実世界の問題を解決できるように支援します。
指示 | 説明 |
---|---|
予測する | 任意の Ultralytics/mmdet/detectron2/huggingface/torchvision モデルを使用して、スライス/標準ビデオ/画像予測を実行します |
予測-5人 | 任意の Ultralytics/mmdet/detectron2/huggingface/torchvision モデルを使用してスライス/標準予測を実行し、fiftyone アプリで結果を調査します |
ココスライス | COCO アノテーションと画像ファイルを自動的にスライスします |
ココ・フィフティワン | 誤検出の数順に並べられた 50 個の UI を使用して、COCO データセット上の複数の予測結果を探索します。 |
ココが評価する | 指定された予測とグランド トゥルースについてクラスごとに COCO AP と AR を評価します |
ココ分析 | 多くのエラー分析プロットを計算してエクスポートする |
ココ・ヨロフ5 | COCO データセットを Ultralytics 形式に自動的に変換します |
SAHI を引用する出版物のリスト (現在 200 以上)
? SAHIを使用したコンテスト受賞者リスト
SAHIの紹介
公式論文(ICIP 2022口頭)
事前トレーニングされた重みと ICIP 2022 ペーパー ファイル
FiftyOne による SAHI 予測の視覚化と評価 (2024) (新規)
「learnopencv.com」の「SAHI の探索」研究記事
「ビデオチュートリアル: 小さなオブジェクト検出のためのスライス支援ハイパー推論 - SAHI」 (推奨)
ビデオ推論のサポートはライブです
Kaggle ノートブック
衛星物体検出
エラー分析プロットと評価 (推奨)
インタラクティブな結果の視覚化と検査 (推奨)
COCO データセットの変換
スライス手術ノート
YOLOX
+ SAHI
デモ: (推奨)
RT-DETR
+ SAHI
ウォークスルー: (新規)
YOLOv8
+ SAHI
ウォークスルー:
DeepSparse
+ SAHI
ウォークスルー:
HuggingFace
+ SAHI
ウォークスルー:
YOLOv5
+ SAHI
ウォークスルー:
MMDetection
+ SAHI
ウォークスルー:
Detectron2
+ SAHI
ウォークスルー:
TorchVision
+ SAHI
ウォークスルー:
sahi
をインストールします。 pip install sahi
Shapely
Conda 経由でインストールする必要があります。 conda install -c conda-forge shapely
conda install pytorch=1.10.2 torchvision=0.11.3 cudatoolkit=11.3 -c pytorch
conda install pytorch=1.13.1 torchvision=0.14.1 pytorch-cuda=11.7 -c pytorch -c nvidia
pip install yolov5==7.0.13
pip install ultralytics==8.0.207
pip install mim
mim install mmdet==3.0.0
pip install detectron2 -f https://dl.fbaipublicfiles.com/detectron2/wheels/cu113/torch1.10/index.html
pip install transformers timm
pip install super-gradients==3.3.1
sahi predict
コマンドの詳細については、cli.md を参照してください。
ビデオ推論の詳細については、ビデオ推論チュートリアルをご覧ください。
画像/データセットのスライス ユーティリティの詳細については、slicing.md を参照してください。
詳細については、「エラー分析プロットと評価」を参照してください。
詳細については、「対話型結果の視覚化と検査」を参照してください。
COCO ユーティリティ (yolov5 変換、スライス、サブサンプリング、フィルタリング、マージ、分割) の詳細については、coco.md を参照してください。
MOT ユーティリティ (グラウンド トゥルース データセットの作成、MOT チャレンジ形式でのトラッカー メトリクスのエクスポート) の詳細については、mot.md をご覧ください。
このパッケージを仕事で使用する場合は、次のように引用してください。
@article{akyon2022sahi,
title={Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection},
author={Akyon, Fatih Cagatay and Altinuc, Sinan Onur and Temizel, Alptekin},
journal={2022 IEEE International Conference on Image Processing (ICIP)},
doi={10.1109/ICIP46576.2022.9897990},
pages={966-970},
year={2022}
}
@software{obss2021sahi,
author = {Akyon, Fatih Cagatay and Cengiz, Cemil and Altinuc, Sinan Onur and Cavusoglu, Devrim and Sahin, Kadir and Eryuksel, Ogulcan},
title = {{SAHI: A lightweight vision library for performing large scale object detection and instance segmentation}},
month = nov,
year = 2021,
publisher = {Zenodo},
doi = {10.5281/zenodo.5718950},
url = {https://doi.org/10.5281/zenodo.5718950}
}
sahi
ライブラリは現在、すべての YOLOv5 モデル、MMDetection モデル、Detectron2 モデル、および HuggingFace オブジェクト検出モデルをサポートしています。さらに、新しいフレームワークを追加するのも簡単です。
必要なのは、sahi/models/ フォルダーの下に新しい .py ファイルを作成し、その .py ファイル内に DetectionModel クラスを実装する新しいクラスを作成することだけです。 MMDetection ラッパーまたは YOLOv5 ラッパーをリファレンスとして使用できます。
PR を開く前に:
pip install -e . " [dev] "
python -m scripts.run_code_style format
ファティ・カガタイ・アクヨン
シナン・オヌル・アルティヌク
デヴリム・チャウショール
ジェミル・ジェンギズ
オグルカン・エリクセル
カディル・ナール
ブラック・マデン
プッシュパック・ボゲ
M. キャン V.
クリストファー・エドランド
イシュウォル
メフメト・エジェヴィト
カディル・サヒン
ウェイ
ヨンジェ
アルズベタ・トゥレコワ
内田壮
クォン・ヨンヘ
ネビル
ヤンネ・メイラ
クリストファー・エドランド
イルカー・マナプ
グエン・タアン
魏志
アイヌル・ススズ
プラナフ ドゥライ
ラクシャイ・メーラ
カール・ジョアン・アレスマ
ジェイコブ・マークス
ウィリアム・ルン
アモグ・ダリワル