중요한
이 저장소는 더 이상 사용되지 않으며 Instill Core 프로젝트를 버전 v0.12.0-beta
까지 실행하기 위한 용도로만 사용됩니다. 여기서 Instill 모델 버전은 더 이상 사용되지 않는 이 저장소의 v0.9.0-alpha
에 해당합니다. instill-ai/instill-core 저장소에서 최신 Instill Core 프로젝트를 확인하세요.
⚗️ Instill Model 또는 간단히 Model은 Instill Core 프로젝트의 필수 구성 요소입니다. 지속적인 최적화를 위해 사용자가 기계 학습(ML) 모델을 원활하게 가져오고, 제공하고, 미세 조정하고 모니터링할 수 있도록 지원하는 데 초점을 맞춘 고급 ModelOps/LLMOps 플랫폼 역할을 합니다.
macOS 또는 Linux - Instill Model은 macOS 또는 Linux에서 작동하지만 아직 Windows를 지원하지 않습니다.
Docker 및 Docker Compose - Instill 모델은 Docker Compose(특히 Compose V2
및 Compose specification
)를 사용하여 로컬에서 모든 서비스를 실행합니다. Instill Model을 사용하기 전에 안정적인 최신 Docker 및 Docker Compose를 설치하세요.
yq
> v4.x
. 설치 가이드를 따르십시오.
(선택 사항) NVIDIA 컨테이너 툴킷 - Instill 모델에서 GPU 지원을 활성화하려면 NVIDIA 클라우드 네이티브 문서를 참조하여 NVIDIA 컨테이너 툴킷을 설치하세요. Instill Model에 GPU를 구체적으로 할당하려면 NVIDIA_VISIBLE_DEVICES
환경 변수를 설정할 수 있습니다. 예를 들어 NVIDIA_VISIBLE_DEVICES=0,1
triton-server
GPU 장치 ID 0
과 1
구체적으로 사용하도록 만듭니다. 기본적으로 NVIDIA_VISIBLE_DEVICES
머신에서 사용 가능한 모든 GPU를 사용하도록 all
로 설정됩니다.
참고 모델 백엔드(~2GB) 및 Triton Inference Server(~23GB)의 이미지를 가져오는 데 시간이 걸릴 수 있지만 이는 첫 번째 설정에서 일회성 작업이어야 합니다.
안정적인 릴리스 버전 사용
다음 명령을 실행하여 모든 종속성이 포함된 사전 빌드된 이미지를 가져와서 시작할 수 있습니다.
$ git clone -b v0.10.0-alpha https://github.com/instill-ai/deprecated-model.git && cd deprecated-model
# Launch all services
$ make all
그게 다야! 모든 서비스가 상태에 도달하면 UI는 http://localhost:3000으로 이동할 준비가 됩니다. 설명서에서 기본 로그인 자격 증명을 찾으십시오.
실행 중인 모든 서비스를 종료하려면 다음 안내를 따르세요.
$ make down
사용 가능한 모든 배포 옵션을 알아보려면 설명서를 살펴보세요.
우리는 바로 사용할 수 있는 모델 목록을 선별합니다. 이러한 사전 훈련된 모델은 다양한 소스에서 왔으며 우리 팀에서 훈련하고 배포했습니다. 새로운 모델에 기여하고 싶으신가요? 이슈를 생성해 주시면 목록에 추가해 드리겠습니다.
모델 | 일 | 출처 | 뼈대 | CPU | GPU |
---|---|---|---|---|---|
모바일넷 v2 | 이미지 분류 | GitHub-DVC | ONNX | ✅ | ✅ |
비전 트랜스포머(ViT) | 이미지 분류 | 포옹하는 얼굴 | ONNX | ✅ | |
YOLOv4 | 객체 감지 | GitHub-DVC | ONNX | ✅ | ✅ |
YOLOv7 | 객체 감지 | GitHub-DVC | ONNX | ✅ | ✅ |
YOLOv7 W6 포즈 | 키포인트 감지 | GitHub-DVC | ONNX | ✅ | ✅ |
PSNet + EasyOCR | 광학 문자 인식(OCR) | GitHub-DVC | ONNX | ✅ | ✅ |
마스크 RCNN | 인스턴스 분할 | GitHub-DVC | 파이토치 | ✅ | ✅ |
MobileNetV3 기반 Lite R-ASPP | 의미론적 분할 | GitHub-DVC | ONNX | ✅ | ✅ |
안정적인 확산 | 텍스트를 이미지로 | GitHub-DVC, 로컬-CPU, 로컬-GPU | ONNX | ✅ | ✅ |
안정확산XL | 텍스트를 이미지로 | GitHub-DVC | 파이토치 | ✅ | |
컨트롤 넷 - 캐니 | 이미지를 이미지로 | GitHub-DVC | 파이토치 | ✅ | |
메가트론 GPT2 | 텍스트 생성 | GitHub-DVC | FasterTransformer | ✅ | |
라마2 | 텍스트 생성 | GitHub-DVC | vLLM, 파이토치 | ✅ | ✅ |
코드 라마 | 텍스트 생성 | GitHub-DVC | vLLM | ✅ | |
Llama2 채팅 | 텍스트 생성 채팅 | GitHub-DVC | vLLM | ✅ | |
모자이크ML MPT | 텍스트 생성 채팅 | GitHub-DVC | vLLM | ✅ | |
미스트랄 | 텍스트 생성 채팅 | GitHub-DVC | vLLM | ✅ | |
제퍼-7b | 텍스트 생성 채팅 | GitHub-DVC | 파이토치 | ✅ | ✅ |
라바 | 시각적 질문 답변 | GitHub-DVC | 파이토치 | ✅ |
참고: 표의 GitHub-DVC
소스는 DVC를 사용하여 대용량 파일을 관리하는 GitHub 저장소에서 Instill Model로 모델을 가져오는 것을 의미합니다.
라이센스 정보는 LICENSE 파일을 참조하십시오.