مهم
تم إهمال هذا المستودع وهو مخصص فقط لإطلاق مشاريع Instill Core حتى الإصدار v0.12.0-beta
، حيث يتوافق إصدار Instill Model مع الإصدار v0.9.0-alpha
في هذا المستودع المهمل. تحقق من أحدث مشروع Instill Core في مستودع instill-ai/instill-core.
⚗️ يعد Instill Model ، أو ببساطة Model ، جزءًا لا يتجزأ من مشروع Instill Core. إنه بمثابة نظام أساسي متقدم لـ ModelOps/LLMOps يركز على تمكين المستخدمين من استيراد نماذج التعلم الآلي (ML) وتقديمها وضبطها وضبطها ومراقبتها بسلاسة من أجل التحسين المستمر.
macOS أو Linux - يعمل Instill Model على نظام التشغيل macOS أو Linux، ولكنه لا يدعم Windows حتى الآن.
Docker وDocker Compose - يستخدم Instill Model Docker Compose (على وجه التحديد، Compose specification
Compose V2
وCompose) لتشغيل جميع الخدمات على المستوى المحلي. يرجى تثبيت أحدث إصدار ثابت من Docker وDocker Compose قبل استخدام Instill Model.
yq
> v4.x
. يرجى اتباع دليل التثبيت.
(اختياري) مجموعة أدوات حاوية NVIDIA - لتمكين دعم وحدة معالجة الرسومات في Instill Model، يرجى الرجوع إلى وثائق NVIDIA Cloud Native لتثبيت مجموعة أدوات حاوية NVIDIA. إذا كنت ترغب في تخصيص وحدات معالجة الرسومات على وجه التحديد لـ Instill Model، فيمكنك تعيين متغير البيئة NVIDIA_VISIBLE_DEVICES
. على سبيل المثال، NVIDIA_VISIBLE_DEVICES=0,1
سيجعل triton-server
يستهلك معرف جهاز GPU 0
و 1
على وجه التحديد. افتراضيًا، يتم تعيين NVIDIA_VISIBLE_DEVICES
على all
لاستخدام جميع وحدات معالجة الرسومات المتاحة على الجهاز.
ملاحظة: قد يستغرق سحب صورة الواجهة الخلفية للنموذج (~2 جيجابايت) وTriton Inference Server (~23 جيجابايت) بعض الوقت، ولكن يجب أن يكون هذا مجهودًا لمرة واحدة عند الإعداد الأول.
استخدم نسخة الإصدار المستقرة
قم بتنفيذ الأوامر التالية لسحب الصور المعدة مسبقًا مع كافة التبعيات لبدء التشغيل:
$ git clone -b v0.10.0-alpha https://github.com/instill-ai/deprecated-model.git && cd deprecated-model
# Launch all services
$ make all
هذا كل شيء! بمجرد اكتمال حالة الصحة لجميع الخدمات، تصبح واجهة المستخدم جاهزة للانتقال إلى http://localhost:3000. الرجاء العثور على بيانات اعتماد تسجيل الدخول الافتراضية في الوثائق.
لإيقاف كافة الخدمات قيد التشغيل:
$ make down
استكشف الوثائق لاكتشاف جميع خيارات النشر المتاحة.
نحن ننظم قائمة من النماذج الجاهزة للاستخدام. هذه النماذج المدربة مسبقًا تأتي من مصادر مختلفة وقد تم تدريبها ونشرها بواسطة فريقنا. هل تريد المساهمة بنموذج جديد؟ الرجاء إنشاء مشكلة، ويسعدنا إضافتها إلى القائمة؟.
نموذج | مهمة | مصادر | نطاق | وحدة المعالجة المركزية | GPU |
---|---|---|---|---|---|
موبايل نت v2 | تصنيف الصور | جيثب-DVC | اونكس | ✅ | ✅ |
محول الرؤية (ViT) | تصنيف الصور | تعانق الوجه | اونكس | ✅ | |
YOLOv4 | كشف الكائنات | جيثب-DVC | اونكس | ✅ | ✅ |
YOLov7 | كشف الكائنات | جيثب-DVC | اونكس | ✅ | ✅ |
YOLOv7 W6 بوز | كشف النقطة الرئيسية | جيثب-DVC | اونكس | ✅ | ✅ |
بي إس نت + إيزي أوكر | التعرف البصري على الحروف (OCR) | جيثب-DVC | اونكس | ✅ | ✅ |
قناع RCNN | تجزئة المثيل | جيثب-DVC | باي تورش | ✅ | ✅ |
Lite R-ASPP يعتمد على MobileNetV3 | التقسيم الدلالي | جيثب-DVC | اونكس | ✅ | ✅ |
انتشار مستقر | النص إلى الصورة | جيثب-DVC، وحدة المعالجة المركزية المحلية، وحدة معالجة الرسومات المحلية | اونكس | ✅ | ✅ |
انتشار مستقر XL | النص إلى الصورة | جيثب-DVC | باي تورش | ✅ | |
شبكة التحكم - كاني | صورة لصورة | جيثب-DVC | باي تورش | ✅ | |
ميجاترون جي بي تي 2 | توليد النص | جيثب-DVC | محول أسرع | ✅ | |
اللاما2 | توليد النص | جيثب-DVC | vLLM، بايتورتش | ✅ | ✅ |
كود لاما | توليد النص | جيثب-DVC | vLLM | ✅ | |
دردشة لاما 2 | دردشة توليد النص | جيثب-DVC | vLLM | ✅ | |
فسيفساءML MPT | دردشة توليد النص | جيثب-DVC | vLLM | ✅ | |
ميسترال | دردشة توليد النص | جيثب-DVC | vLLM | ✅ | |
زفير-7ب | دردشة توليد النص | جيثب-DVC | باي تورش | ✅ | ✅ |
اللافا | الإجابة على الأسئلة البصرية | جيثب-DVC | باي تورش | ✅ |
ملاحظة: مصدر GitHub-DVC
في الجدول يعني استيراد نموذج إلى Instill Model من مستودع GitHub الذي يستخدم DVC لإدارة الملفات الكبيرة.
راجع ملف الترخيص للحصول على معلومات الترخيص.