重要
このリポジトリは非推奨となり、バージョンv0.12.0-beta
までの Instill Core プロジェクトの起動のみを目的としています。Instill モデルのバージョンは、この非推奨のリポジトリのv0.9.0-alpha
に対応します。 instill-ai/instill-core リポジトリで最新の Instill Core プロジェクトを確認してください。
⚗️ Instill Model 、または単にModel は、Instill Core プロジェクトの不可欠なコンポーネントです。これは、ユーザーが機械学習 (ML) モデルをシームレスにインポート、提供、微調整、監視して継続的に最適化できるようにすることに重点を置いた、高度な ModelOps/LLMOps プラットフォームとして機能します。
macOS または Linux - Instill Model は macOS または Linux で動作しますが、Windows はまだサポートしていません。
Docker と Docker Compose - Instill Model は、Docker Compose (具体的にはCompose V2
およびCompose specification
) を使用して、すべてのサービスをローカルで実行します。 Instill Model を使用する前に、最新の安定した Docker と Docker Compose をインストールしてください。
yq
> v4.x
。インストールガイドに従ってください。
(オプション) NVIDIA Container Toolkit - Instill Model で GPU サポートを有効にするには、NVIDIA Cloud Native Documentation を参照して NVIDIA Container Toolkit をインストールしてください。 Instill Model に特に GPU を割り当てたい場合は、環境変数NVIDIA_VISIBLE_DEVICES
設定できます。たとえば、 NVIDIA_VISIBLE_DEVICES=0,1
triton-server
GPU デバイス ID 0
と1
特に消費するようにします。デフォルトでは、マシン上で利用可能なすべての GPU を使用するために、 NVIDIA_VISIBLE_DEVICES
all
に設定されています。
注:モデル バックエンド (~2GB) および Triton Inference Server (~23GB) のイメージを取得するには時間がかかる場合がありますが、これは最初のセットアップ時に 1 回限りの作業です。
安定したリリースバージョンを使用する
次のコマンドを実行して、起動するすべての依存関係を含む事前に構築されたイメージをプルします。
$ git clone -b v0.10.0-alpha https://github.com/instill-ai/deprecated-model.git && cd deprecated-model
# Launch all services
$ make all
それでおしまい!すべてのサービスが正常性ステータスで稼働すると、UI を http://localhost:3000 で使用できるようになります。デフォルトのログイン資格情報はドキュメントで確認してください。
実行中のサービスをすべてシャットダウンするには:
$ make down
ドキュメントを参照して、利用可能なすべての展開オプションを確認してください。
すぐに使えるモデルのリストを厳選しています。これらの事前トレーニング済みモデルはさまざまなソースからのものであり、当社のチームによってトレーニングおよびデプロイされています。新しいモデルに貢献したいですか?問題を作成してください。喜んでリストに追加します。
モデル | タスク | 情報源 | フレームワーク | CPU | GPU |
---|---|---|---|---|---|
モバイルネット v2 | 画像の分類 | GitHub-DVC | ONNX | ✅ | ✅ |
ビジョントランスフォーマー (ViT) | 画像の分類 | ハグフェイス | ONNX | ✅ | |
YOLOv4 | 物体検出 | GitHub-DVC | ONNX | ✅ | ✅ |
YOLOv7 | 物体検出 | GitHub-DVC | ONNX | ✅ | ✅ |
YOLOv7 W6 ポーズ | キーポイントの検出 | GitHub-DVC | ONNX | ✅ | ✅ |
PSNet + EasyOCR | 光学式文字認識 (OCR) | GitHub-DVC | ONNX | ✅ | ✅ |
マスクRCNN | インスタンスのセグメンテーション | GitHub-DVC | パイトーチ | ✅ | ✅ |
MobileNetV3 ベースの Lite R-ASPP | セマンティックセグメンテーション | GitHub-DVC | ONNX | ✅ | ✅ |
安定した拡散 | テキストから画像へ | GitHub-DVC、ローカル CPU、ローカル GPU | ONNX | ✅ | ✅ |
安定拡散XL | テキストから画像へ | GitHub-DVC | パイトーチ | ✅ | |
コントロールネット - Canny | 画像から画像へ | GitHub-DVC | パイトーチ | ✅ | |
メガトロン GPT2 | テキストの生成 | GitHub-DVC | 高速トランスフォーマー | ✅ | |
ラマ2 | テキストの生成 | GitHub-DVC | vLLM、PyTorch | ✅ | ✅ |
コードラマ | テキストの生成 | GitHub-DVC | vLLM | ✅ | |
ラマ2チャット | テキスト生成チャット | GitHub-DVC | vLLM | ✅ | |
モザイクML MPT | テキスト生成チャット | GitHub-DVC | vLLM | ✅ | |
ミストラル | テキスト生成チャット | GitHub-DVC | vLLM | ✅ | |
ゼファー7b | テキスト生成チャット | GitHub-DVC | パイトーチ | ✅ | ✅ |
ラヴァ | 視覚的な質問への回答 | GitHub-DVC | パイトーチ | ✅ |
注: 表内のGitHub-DVC
ソースは、DVC を使用して大きなファイルを管理する GitHub リポジトリから Instill Model にモデルをインポートすることを意味します。
ライセンス情報については、LICENSE ファイルを参照してください。