تم تصميم المعسكر التدريبي الشامل LLM (نموذج اللغة الكبيرة) من منظور العالم الحقيقي الذي يتبع نموذج معالجة البيانات وتطويرها ونشرها. يتجول الحضور خلال سير العمل الخاص بالمعالجة المسبقة لمجموعة بيانات openassistant-guanaco لمهمة إنشاء النص وتدريب مجموعة البيانات باستخدام نموذج LLAMA 2 7Billion، وهو ماجستير في إدارة الأعمال تم تدريبه مسبقًا وضبطه بدقة. سيتعلم الحاضرون أيضًا تحسين LLM باستخدام NVIDIA® TensorRT™ LLM، وهي SDK لاستدلال نموذج لغة كبير عالي الأداء، وفهم مطالبات واستجابات حاجز الحماية من نموذج LLM باستخدام NVIDIA NeMo Guardrails، ونشر خط أنابيب الذكاء الاصطناعي باستخدام NVIDIA TensorRT LLM Backend. (المدعوم من Triton™ Inference Server)، وهو برنامج مفتوح المصدر يعمل على توحيد نشر LLM وتنفيذه عبر كل عبء عمل.
يحتوي هذا المحتوى على ثلاثة مختبرات، بالإضافة إلى دفتر التحدي:
الأدوات والأطر المستخدمة في مادة Bootcamp هي كما يلي:
سيستغرق إجمالي مواد البرنامج التدريبي حوالي 7 ساعات و30 دقيقة. ننصح بتقسيم تدريس المادة إلى يومين، بحيث تغطي المعمل 1-3 في جلسة واحدة والباقي في الجلسة التالية.
لنشر الميزات الاختبارية، يرجى الرجوع إلى دليل النشر المعروض هنا
مصدر هذه المادة هو مستودع OpenHackathons Github. تحقق من مواد إضافية هنا
لا تنس التحقق من موارد Open Hackathons الإضافية والانضمام إلى قناة OpenACC وHackathons Slack لمشاركة تجربتك والحصول على المزيد من المساعدة من المجتمع.
حقوق الطبع والنشر © 2024 OpenACC-Standard.org. تم إصدار هذه المادة بواسطة OpenACC-Standard.org، بالتعاون مع شركة NVIDIA، بموجب Creative Commons Attribution 4.0 International (CC BY 4.0). قد تتضمن هذه المواد إشارات إلى الأجهزة والبرامج التي طورتها كيانات أخرى؛ تنطبق جميع التراخيص وحقوق التأليف والنشر المعمول بها.