يتعاون مجتمع Moda مع vLLM وFastChat لتزويد المطورين الصينيين بخدمات استدلال ونشر نماذج لغة كبيرة أكثر ملاءمة وكفاءة. تهدف هذه الخطوة إلى خفض عتبة التطوير وتسريع تنفيذ تطبيقات LLM. بصفته محرك الاستدلال لـ FastChat، يعمل vLLM على تحسين إنتاجية الاستدلال النموذجي بشكل كبير، في حين أن FastChat عبارة عن منصة مفتوحة تغطي العملية الكاملة لتدريب ChatBot الذي يعتمد على LLM والخدمة والتقييم. يسمح vLLM، الذي تم تطويره بشكل مشترك من قبل باحثين من بيركلي وستانفورد وجامعة كاليفورنيا في سان دييغو، للمطورين بتحميل النماذج السحرية للاستدلال بسرعة، مما يبسط عملية التطوير بشكل كبير ويضخ حيوية جديدة في تطوير النظام البيئي للذكاء الاصطناعي في الصين.
في الآونة الأخيرة، تعاون مجتمع Moda مع vLLM وFastChat لتزويد المطورين الصينيين بشكل مشترك بخدمات استدلال ونشر LLM أسرع وأكثر كفاءة. يمكن للمطورين استخدام vLLM كمحرك الاستدلال في FastChat لتوفير استدلال نموذج عالي الإنتاجية. FastChat عبارة عن منصة مفتوحة للتدريب والخدمة وتقييم ChatBots المستندة إلى LLM. vLLM هو نظام خدمة LLM تم تطويره بواسطة باحثين من جامعة كاليفورنيا، بيركلي، وجامعة ستانفورد، وجامعة كاليفورنيا، سان دييغو. من خلال FastChat وvLLM، يمكن للمطورين تحميل نموذج Moda بسرعة للاستدلال.
يدمج هذا التعاون مزايا العديد من المنصات الممتازة ويوفر للمطورين مجموعة كاملة وفعالة من حلول LLM. ومن المتوقع أن يعزز التطور التكنولوجي وابتكار التطبيقات في مجال الذكاء الاصطناعي في الصين ويساهم في بناء نظام بيئي أكثر ازدهارًا للذكاء الاصطناعي. وفي المستقبل، نتطلع إلى رؤية المزيد من التعاون المماثل للعمل بشكل مشترك على تعزيز تقدم وتطوير تكنولوجيا الذكاء الاصطناعي.