Importante
Este repositório foi descontinuado e destina-se apenas ao lançamento de projetos Instill Core até a versão v0.12.0-beta
, onde a versão do Instill Model corresponde a v0.9.0-alpha
neste repositório obsoleto. Verifique o projeto Instill Core mais recente no repositório instill-ai/instill-core.
⚗️ Instill Model , ou simplesmente Model , é um componente integral do projeto Instill Core. Ele serve como uma plataforma ModelOps/LLMOps avançada focada em capacitar os usuários para importar, servir, ajustar e monitorar modelos de aprendizado de máquina (ML) para otimização contínua.
macOS ou Linux - o Instill Model funciona em macOS ou Linux, mas ainda não oferece suporte ao Windows.
Docker e Docker Compose - Instill Model usa Docker Compose (especificamente, Compose V2
e Compose specification
) para executar todos os serviços localmente. Instale o Docker e o Docker Compose estáveis mais recentes antes de usar o Instill Model.
yq
> v4.x
. Por favor, siga o guia de instalação.
(Opcional) NVIDIA Container Toolkit – Para ativar o suporte de GPU no modelo Instill, consulte a documentação NVIDIA Cloud Native para instalar o NVIDIA Container Toolkit. Se desejar alocar GPUs especificamente para o modelo Instill, você pode definir a variável de ambiente NVIDIA_VISIBLE_DEVICES
. Por exemplo, NVIDIA_VISIBLE_DEVICES=0,1
fará com que o triton-server
consuma os IDs 0
e 1
do dispositivo GPU especificamente. Por padrão, NVIDIA_VISIBLE_DEVICES
está definido como all
para usar todas as GPUs disponíveis na máquina.
Nota A imagem do back-end do modelo (~ 2 GB) e do Triton Inference Server (~ 23 GB) pode demorar um pouco para ser extraída, mas isso deve ser um esforço único na primeira configuração.
Use versão de lançamento estável
Execute os seguintes comandos para extrair imagens pré-construídas com todas as dependências para iniciar:
$ git clone -b v0.10.0-alpha https://github.com/instill-ai/deprecated-model.git && cd deprecated-model
# Launch all services
$ make all
É isso! Assim que todos os serviços estiverem com status de integridade, a IU estará pronta para uso em http://localhost:3000. Encontre as credenciais de login padrão na documentação.
Para encerrar todos os serviços em execução:
$ make down
Explore a documentação para descobrir todas as opções de implantação disponíveis.
Organizamos uma lista de modelos prontos para uso. Esses modelos pré-treinados são de diferentes fontes e foram treinados e implantados por nossa equipe. Quer contribuir com um novo modelo? Crie um problema, ficaremos felizes em adicioná-lo à lista?
Modelo | Tarefa | Fontes | Estrutura | CPU | GPU |
---|---|---|---|---|---|
MobileNet v2 | Classificação de imagens | GitHub-DVC | ONNX | ✅ | ✅ |
Transformador de Visão (ViT) | Classificação de imagens | Abraçando o rosto | ONNX | ✅ | |
YOLOv4 | Detecção de objetos | GitHub-DVC | ONNX | ✅ | ✅ |
YOLOv7 | Detecção de objetos | GitHub-DVC | ONNX | ✅ | ✅ |
Pose YOLOv7 W6 | Detecção de ponto-chave | GitHub-DVC | ONNX | ✅ | ✅ |
PSNet + EasyOCR | Reconhecimento Óptico de Caracteres (OCR) | GitHub-DVC | ONNX | ✅ | ✅ |
Máscara RCNN | Segmentação de instância | GitHub-DVC | PyTorch | ✅ | ✅ |
Lite R-ASPP baseado em MobileNetV3 | Segmentação Semântica | GitHub-DVC | ONNX | ✅ | ✅ |
Difusão Estável | Texto para imagem | GitHub-DVC, CPU local, GPU local | ONNX | ✅ | ✅ |
Difusão Estável XL | Texto para imagem | GitHub-DVC | PyTorch | ✅ | |
Rede de controle - Canny | Imagem a imagem | GitHub-DVC | PyTorch | ✅ | |
Megatron GPT2 | Geração de texto | GitHub-DVC | Transformador mais rápido | ✅ | |
Lhama2 | Geração de texto | GitHub-DVC | vLLM, PyTorch | ✅ | ✅ |
Código Lhama | Geração de texto | GitHub-DVC | vLLM | ✅ | |
Bate-papo Llama2 | Bate-papo de geração de texto | GitHub-DVC | vLLM | ✅ | |
MosaicML MPT | Bate-papo de geração de texto | GitHub-DVC | vLLM | ✅ | |
Mistral | Bate-papo de geração de texto | GitHub-DVC | vLLM | ✅ | |
Zéfiro-7b | Bate-papo de geração de texto | GitHub-DVC | PyTorch | ✅ | ✅ |
Llava | Resposta visual a perguntas | GitHub-DVC | PyTorch | ✅ |
Nota: A origem GitHub-DVC
na tabela significa importar um modelo para o Instill Model de um repositório GitHub que usa DVC para gerenciar arquivos grandes.
Consulte o arquivo LICENSE para obter informações de licenciamento.