تتعاون Hugging Face وNVIDIA لإطلاق خدمة Inference-as-a-Service الثورية، والتي تستخدم تقنية NIM من NVIDIA لتسريع نشر نماذج الذكاء الاصطناعي وإنشاء نماذج أولية بشكل كبير. تم إطلاق الخدمة رسميًا في مؤتمر SIGGRAPH2024، مما يمثل تحسنًا كبيرًا في كفاءة نشر نموذج الذكاء الاصطناعي. يمكن للمطورين الوصول بسهولة إلى نماذج الذكاء الاصطناعي القوية مفتوحة المصدر ونشرها، مثل نماذج Llama2 وMistral AI، من خلال Hugging Face Hub، بينما تضمن خدمات NIM الصغيرة من NVIDIA الأداء الأمثل لهذه النماذج.
مؤخرًا، أعلنت المنصة مفتوحة المصدر Hugging Face وNVIDIA عن خدمة جديدة مثيرة - الاستدلال كخدمة، والتي سيتم تشغيلها بواسطة تقنية NIM من NVIDIA. يتيح إطلاق الخدمة الجديدة للمطورين إنشاء نماذج أولية بسرعة أكبر، واستخدام نماذج الذكاء الاصطناعي مفتوحة المصدر المتوفرة على Hugging Face Hub، ونشرها بكفاءة.
تم الإعلان عن هذا الخبر في مؤتمر SIGGRAPH2024 الجاري. جمع هذا المؤتمر عددًا كبيرًا من الخبراء في رسومات الكمبيوتر والتكنولوجيا التفاعلية، وتم الإعلان في هذا الوقت عن التعاون بين NVIDIA وHugging Face، مما يوفر فرصًا جديدة للمطورين. من خلال هذه الخدمة، يمكن للمطورين بسهولة نشر نماذج لغة كبيرة قوية (LLMs)، مثل نماذج Llama2 وMistral AI، كما توفر خدمات NIM الصغيرة من NVIDIA تحسينًا لهذه النماذج.
على وجه التحديد، عند الوصول إليه كـ NIM، يمكن معالجة نموذج Llama3 ذو 7 مليار معلمة أسرع بخمس مرات من نشره على نظام GPU القياسي NVIDIA H100 Tensor Core، وهو بلا شك تحسن كبير. بالإضافة إلى ذلك، تدعم هذه الخدمة الجديدة أيضًا "Train on DGX Cloud" (القطار على DGX Cloud)، المتوفر حاليًا على Hugging Face.
إن NIM من NVIDIA عبارة عن مجموعة من خدمات الذكاء الاصطناعي المصغرة المحسنة للاستدلال، والتي تغطي نماذج الذكاء الاصطناعي الأساسية من NVIDIA ونماذج المجتمع مفتوحة المصدر. إنه يحسن بشكل كبير كفاءة معالجة الرمز المميز من خلال واجهات برمجة التطبيقات القياسية ويعزز البنية التحتية لـ NVIDIA DGX Cloud، مما يسرع سرعة الاستجابة واستقرار تطبيقات الذكاء الاصطناعي.
تم تصميم منصة NVIDIA DGX Cloud خصيصًا للذكاء الاصطناعي التوليدي، مما يوفر بنية تحتية حوسبة موثوقة وسريعة لمساعدة المطورين على الانتقال من النموذج الأولي إلى الإنتاج دون التزامات طويلة الأجل. سيعمل التعاون بين Hugging Face وNVIDIA على تعزيز مجتمع المطورين، كما أعلنت Hugging Face مؤخرًا أن فريقها قد حقق ربحية، حيث وصل حجم الفريق إلى 220 شخصًا، وأطلق سلسلة SmolLM من نماذج اللغات الصغيرة.
أبرز النقاط:
تطلق Hugging Face وNVIDIA خدمة الاستدلال كخدمة لتحسين كفاءة معالجة الرموز المميزة لنماذج الذكاء الاصطناعي بمقدار خمس مرات.
تدعم الخدمة الجديدة النشر السريع لنماذج LLM القوية وتعمل على تحسين عملية التطوير.
توفر منصة NVIDIA DGX Cloud بنية تحتية متسارعة للذكاء الاصطناعي التوليدي، مما يبسط عملية الإنتاج للمطورين.
يوفر التعاون بين Hugging Face وNVIDIA لمطوري الذكاء الاصطناعي بيئة نشر وتدريب فعالة ومريحة من خلال الاستدلال كخدمة ومنصة NVIDIA DGX Cloud، مما يخفض بشكل كبير عتبة تطوير تطبيقات الذكاء الاصطناعي وتسريع تطبيق تقنية الذكاء الاصطناعي عزز التطور النشط لصناعة الذكاء الاصطناعي.