スターターガイド|インストール|使い方|例
Labelme は、http://labelme.csail.mit.edu からインスピレーションを得たグラフィカル画像注釈ツールです。
これは Python で書かれており、グラフィカル インターフェイスとして Qt を使用します。
インスタンスのセグメンテーションの VOC データセットの例。
その他の例 (セマンティック セグメンテーション、bbox 検出、分類)。
さまざまなプリミティブ (多角形、長方形、円、線、点)。
多角形、長方形、円、線、点の画像注釈。 (チュートリアル)
分類とクリーニングのための画像フラグの注釈。 (#166)
ビデオの注釈。 (ビデオ注釈)
GUI のカスタマイズ (事前定義されたラベル/フラグ、自動保存、ラベル検証など)。 (#144)
セマンティック/インスタンス セグメンテーションのために VOC 形式のデータセットをエクスポートします。 (セマンティックセグメンテーション、インスタンスセグメンテーション)
インスタンスセグメンテーションのために COCO 形式のデータセットをエクスポートします。 (インスタンスのセグメンテーション)
Labelme を初めて使用する場合は、以下が含まれる Labelme Starter から始めることができます。
すべてのプラットフォーム用のインストール ガイド: Windows、macOS、Linux ?
ステップバイステップのチュートリアル: 編集、エクスポート、他のプログラムとの統合への最初の注釈?
さらなる探索のための貴重なリソースをまとめたもの?
オプションがあります:
プラットフォームに依存しないインストール: Anaconda
プラットフォーム固有のインストール: Ubuntu、macOS、Windows
リリースセクションからの事前ビルドバイナリ
Anaconda をインストールしてから、以下を実行する必要があります。
# python3conda create --name=labelme python=3source activate labelme# conda install -c conda-forge pyside2# conda install pyqt# pip install pyqt5 # pyqt5 は、python3pip install labelme# の pip 経由でインストールできます。または、conda コマンドですべてをインストールできます# conda インストール labelme -c conda-forge
sudo apt-get install labelme# orsudo pip3 install labelme# またはスタンドアロン実行可能ファイルを以下からインストールします:# https://github.com/labelmeai/labelme/releases# またはsourcepip3 からインストール install git+https://github.com/labelmeai/ラベルミー
brew install pyqt # おそらくpyqt5pip install labelme# または次の場所からスタンドアロンの実行可能ファイル/アプリをインストールします:# https://github.com/labelmeai/labelme/releases# またはsourcepip3 からインストール install git+https://github.com/labelmeai/labelme
Anaconda をインストールし、Anaconda プロンプトで次のコマンドを実行します。
conda create --name=labelme python=3 conda は labelme をアクティブ化します pip install labelme# またはスタンドアロンの実行可能ファイル/アプリを次の場所からインストールします:# https://github.com/labelmeai/labelme/releases# またはsourcepip3 からインストール git+https://github.com/labelmeai/labelme
詳細については、 labelme --help
を実行してください。
注釈は JSON ファイルとして保存されます。
labelme # gui# チュートリアルを開くだけ (単一イメージの例)cd 例/チュートリアル labelme apc2016_obj3.jpg # 画像ファイルを指定しますlabelme apc2016_obj3.jpg -O apc2016_obj3.json # 保存後にウィンドウを閉じますlabelme apc2016_obj3.jpg --nodata # 画像データは含まれませんが、JSON ファイル内の相対画像パスは含まれませんlabelme apc2016_obj3.jpg --labels highland_6539_self_stick_notes,mead_index_cards,kong_air_dog_squeakair_tennis_ball # ラベル リストを指定# セマンティック セグメンテーション examplecd example/semantic_segmentation labelme data_annotated/ # ディレクトリを開き、その中のすべての画像に注釈を付けますlabelme data_annotated/ --labels label.txt # ファイルでラベル リストを指定します
--output
注釈が書き込まれる場所を指定します。場所が .json で終わる場合、単一の注釈がこのファイルに書き込まれます。 .json で場所を指定した場合、注釈を付けることができる画像は 1 つだけです。場所が .json で終わらない場合、プログラムはそれがディレクトリであるとみなします。注釈は、注釈が付けられた画像に対応する名前でこのディレクトリに保存されます。
初めて labelme を実行すると、 ~/.labelmerc
に構成ファイルが作成されます。このファイルを編集すると、次回 labelme を起動するときに変更が適用されます。別の場所の構成ファイルを使用したい場合は、 --config
フラグを使用してこのファイルを指定できます。
--nosortlabels
フラグを指定しないと、プログラムはラベルをアルファベット順にリストします。このフラグを指定してプログラムを実行すると、指定された順序でラベルが表示されます。
フラグは画像全体に割り当てられます。例
ラベルは単一のポリゴンに割り当てられます。例
JSONファイルをnumpy配列に変換するにはどうすればよいですか?例/チュートリアルを参照してください。
ラベルPNGファイルをロードするにはどうすればよいですか?例/チュートリアルを参照してください。
セマンティック セグメンテーションのアノテーションを取得するにはどうすればよいですか? example/semantic_segmentation を参照してください。
インスタンスのセグメンテーションのためのアノテーションを取得するにはどうすればよいですか? 「examples/instance_segmentation」を参照してください。
画像の分類
境界ボックスの検出
セマンティックセグメンテーション
インスタンスのセグメンテーション
ビデオ注釈
git clone https://github.com/labelmeai/labelme.gitcd labelme# anaconda3 と labelmecurl をインストールします -L https://github.com/wkentaro/dotfiles/raw/main/local/bin/install_anaconda3.sh | bash -s .source .anaconda3/bin/activate pip install -e 。
以下に、macOS、Linux、Windows 上でスタンドアロン実行可能ファイルをビルドする方法を示します。
# condaconda をセットアップします create --name labelme python=3.9 conda activate labelme# スタンドアロンの実行可能ファイルをビルドしますpip install .pip install 'matplotlib<3.3'pip install pyinstaller pyinstaller labelme.spec dist/labelme --version
お使いの環境で以下のテストが成功することを確認してください。
詳細については、 .github/workflows/ci.yml
参照してください。
pip install -r 要件-dev.txt ruff format --check # `ruff format` を自動修正するruff check # `ruff check --fix` を自動修正するMPLBACKEND='agg' pytest -vsx testing/
このリポジトリは mpitid/pylabelme のフォークです。