สำคัญ
พื้นที่เก็บข้อมูลนี้เลิกใช้แล้วและมีไว้สำหรับการเปิดตัวโปรเจ็กต์ Instill Core จนถึงเวอร์ชัน v0.12.0-beta
เท่านั้น โดยที่เวอร์ชัน Instill Model สอดคล้องกับ v0.9.0-alpha
ในที่เก็บที่เลิกใช้แล้วนี้ ตรวจสอบโปรเจ็กต์ Instill Core ล่าสุดในที่เก็บ instill-ai/instill-core
⚗️ Instill Model หรือเรียกง่ายๆ ว่า Model เป็นองค์ประกอบสำคัญของโครงการ Instill Core โดยทำหน้าที่เป็นแพลตฟอร์ม ModelOps/LLMOps ขั้นสูงที่มุ่งเน้นการเสริมศักยภาพให้ผู้ใช้สามารถนำเข้า ให้บริการ ปรับแต่ง และตรวจสอบโมเดล Machine Learning (ML) ได้อย่างราบรื่นเพื่อการเพิ่มประสิทธิภาพอย่างต่อเนื่อง
macOS หรือ Linux - Instill Model ทำงานบน macOS หรือ Linux แต่ยังไม่รองรับ Windows
Docker และ Docker Compose - Instill Model ใช้ Docker Compose (โดยเฉพาะ Compose V2
และ Compose specification
) เพื่อเรียกใช้บริการทั้งหมดในพื้นที่ โปรดติดตั้ง Docker และ Docker Compose ที่เสถียรล่าสุดก่อนใช้ Instill Model
yq
> v4.x
. โปรดปฏิบัติตามคู่มือการติดตั้ง
(ทางเลือก) NVIDIA Container Toolkit - หากต้องการเปิดใช้งานการรองรับ GPU ใน Instill Model โปรดดูเอกสาร NVIDIA Cloud Native เพื่อติดตั้ง NVIDIA Container Toolkit หากคุณต้องการจัดสรร GPU ให้กับ Instill Model โดยเฉพาะ คุณสามารถตั้งค่าตัวแปรสภาพแวดล้อม NVIDIA_VISIBLE_DEVICES
ได้ ตัวอย่างเช่น NVIDIA_VISIBLE_DEVICES=0,1
จะทำให้ triton-server
ใช้อุปกรณ์ GPU id 0
และ 1
โดยเฉพาะ ตามค่าเริ่มต้น NVIDIA_VISIBLE_DEVICES
จะถูกตั้งค่าเป็น all
เพื่อใช้ GPU ที่มีอยู่ทั้งหมดบนเครื่อง
หมายเหตุ อิมเมจของโมเดลแบ็กเอนด์ (~2GB) และ Triton Inference Server (~23GB) อาจใช้เวลาสักครู่ในการดึง แต่ควรดำเนินการเพียงครั้งเดียวในการตั้งค่าครั้งแรก
ใช้เวอร์ชันรีลีสที่เสถียร
ดำเนินการคำสั่งต่อไปนี้เพื่อดึงอิมเมจที่สร้างไว้ล่วงหน้าพร้อมการอ้างอิงทั้งหมดที่จะเปิดใช้งาน:
$ git clone -b v0.10.0-alpha https://github.com/instill-ai/deprecated-model.git && cd deprecated-model
# Launch all services
$ make all
แค่นั้นแหละ! เมื่อบริการทั้งหมดขึ้นอยู่กับสถานะสุขภาพแล้ว UI ก็พร้อมที่จะไปที่ http://localhost:3000 โปรดดูข้อมูลรับรองการเข้าสู่ระบบเริ่มต้นในเอกสารประกอบ
หากต้องการปิดบริการที่ทำงานอยู่ทั้งหมด:
$ make down
สำรวจเอกสารประกอบเพื่อค้นหาตัวเลือกการปรับใช้ที่มีอยู่ทั้งหมด
เรารวบรวมรายชื่อรุ่นที่พร้อมใช้งาน โมเดลที่ได้รับการฝึกอบรมล่วงหน้าเหล่านี้มาจากแหล่งต่างๆ และได้รับการฝึกอบรมและปรับใช้โดยทีมงานของเรา ต้องการสนับสนุนโมเดลใหม่หรือไม่? โปรดสร้างปัญหา เรายินดีที่จะเพิ่มลงในรายการ ?
แบบอย่าง | งาน | แหล่งที่มา | กรอบ | ซีพียู | จีพียู |
---|---|---|---|---|---|
โมบายเน็ต เวอร์ชั่น 2 | การจำแนกประเภทภาพ | GitHub-DVC | สสส | ||
วิชันทรานส์ฟอร์มเมอร์ (ViT) | การจำแนกประเภทภาพ | กอดหน้า | สสส | ||
โยโลฟ4 | การตรวจจับวัตถุ | GitHub-DVC | สสส | ||
โยโลฟ7 | การตรวจจับวัตถุ | GitHub-DVC | สสส | ||
YOLOv7 W6 ท่า | การตรวจจับจุดสำคัญ | GitHub-DVC | สสส | ||
PSNet + EasyOCR | การรู้จำอักขระด้วยแสง (OCR) | GitHub-DVC | สสส | ||
หน้ากาก RCNN | การแบ่งส่วนอินสแตนซ์ | GitHub-DVC | ไพทอร์ช | ||
Lite R-ASPP ที่ใช้ MobileNetV3 | การแบ่งส่วนความหมาย | GitHub-DVC | สสส | ||
การแพร่กระจายที่เสถียร | ข้อความเป็นรูปภาพ | GitHub-DVC, CPU ภายใน, GPU ภายใน | สสส | ||
การแพร่กระจายที่เสถียร XL | ข้อความเป็นรูปภาพ | GitHub-DVC | ไพทอร์ช | ||
คอนโทรลเน็ต - แคนนี่ | รูปภาพต่อรูปภาพ | GitHub-DVC | ไพทอร์ช | ||
เมกะตรอน GPT2 | การสร้างข้อความ | GitHub-DVC | เร็วกว่าหม้อแปลงไฟฟ้า | ||
ลามะ2 | การสร้างข้อความ | GitHub-DVC | vLLM, ไพทอร์ช | ||
รหัสลามะ | การสร้างข้อความ | GitHub-DVC | วีแอลแอลเอ็ม | ||
Llama2 แชท | แชทการสร้างข้อความ | GitHub-DVC | วีแอลแอลเอ็ม | ||
โมเสกเอ็มแอล เอ็มพีที | แชทสร้างข้อความ | GitHub-DVC | วีแอลแอลเอ็ม | ||
มิสทรัล | แชทสร้างข้อความ | GitHub-DVC | วีแอลแอลเอ็ม | ||
เซเฟอร์-7บี | แชทสร้างข้อความ | GitHub-DVC | ไพทอร์ช | ||
ลาวา | การตอบคำถามด้วยภาพ | GitHub-DVC | ไพทอร์ช |
หมายเหตุ: แหล่งที่มา GitHub-DVC
ในตารางหมายถึงการนำเข้าโมเดลไปยัง Instill Model จากพื้นที่เก็บข้อมูล GitHub ที่ใช้ DVC เพื่อจัดการไฟล์ขนาดใหญ่
ดูไฟล์ใบอนุญาตสำหรับข้อมูลใบอนุญาต