أطلقت شركة Shenzhen Yuanxiang Information Technology Co., Ltd. أكبر نموذج كبير مفتوح المصدر لمزيج من الخبراء (MoE) في الصين - XVERSE-MoE-A36B، مما يجعل إجمالي المعلمات 255B ومعلمات التنشيط 36B أداءً مشابهًا أو حتى متفوقًا على العديد من نماذج المعلمات الأكبر . لقد حقق هذا النموذج تحسينات كبيرة في وقت التدريب وأداء الاستدلال، وخفض التكلفة لكل رمز مميز بشكل كبير، وقدم دعمًا قويًا للنشر منخفض التكلفة لتطبيقات الذكاء الاصطناعي. يمثل هذا الاختراق التقدم الكبير الذي حققته الصين في مجال النماذج اللغوية واسعة النطاق، مما يدفع التكنولوجيا المحلية مفتوحة المصدر إلى مكانة دولية رائدة. نموذج XVERSE-MoE-A36B مفتوح المصدر بالكامل ومجاني للاستخدام التجاري، مما يوفر موارد قيمة للمؤسسات الصغيرة والمتوسطة والباحثين والمطورين.
يحتوي طراز XVERSE-MoE-A36B على 255B من المعلمات الإجمالية ومعلمات التنشيط 36B، وأدائه مشابه للنماذج الكبيرة التي تحتوي على أكثر من 100B من المعلمات، مما يحقق قفزة في الأداء عبر المستويات. يقلل النموذج من وقت التدريب بنسبة 30%، ويحسن أداء الاستدلال بنسبة 100%، ويقلل بشكل كبير من تكلفة كل رمز مميز، ويجعل النشر منخفض التكلفة لتطبيقات الذكاء الاصطناعي أمرًا ممكنًا. كانت نماذج سلسلة الجرافات العائلية عالية الأداء من Yuanxiang XVERSE مفتوحة المصدر بالكامل وهي مجانية للاستخدام التجاري دون قيد أو شرط، مما يوفر للعديد من المؤسسات الصغيرة والمتوسطة الحجم والباحثين والمطورين المزيد من الخيارات. تكسر بنية وزارة التعليم قيود قوانين التوسع التقليدية من خلال الجمع بين نماذج الخبراء في أقسام فرعية متعددة، ومع توسيع نطاق النموذج، فإنها تحافظ على أقصى أداء للنموذج وتقلل من التكاليف الحسابية للتدريب والاستدلال. في العديد من التقييمات الموثوقة، تجاوز تأثير Yuanxiang MoE بشكل كبير تأثير العديد من النماذج المماثلة، بما في ذلك نموذج MoE المحلي الذي تبلغ تكلفته 100 مليار Skywork-MoE، ونموذج MoE overlord التقليدي Mixtral-8x22B، ونموذج MoE مفتوح المصدر الذي تبلغ قيمته 314 مليار معلمة Grok-1. -A86B الخ.
كانت نماذج سلسلة الجرافات العائلية عالية الأداء من Yuanxiang XVERSE مفتوحة المصدر بالكامل وهي مجانية للاستخدام التجاري دون قيد أو شرط، مما يوفر للعديد من المؤسسات الصغيرة والمتوسطة الحجم والباحثين والمطورين المزيد من الخيارات. تكسر بنية وزارة التعليم قيود قوانين التوسع التقليدية من خلال الجمع بين نماذج الخبراء في أقسام فرعية متعددة، ومع توسيع نطاق النموذج، فإنها تحافظ على أقصى أداء للنموذج وتقلل من التكاليف الحسابية للتدريب والاستدلال.
في العديد من التقييمات الموثوقة، تجاوز تأثير Yuanxiang MoE بشكل كبير تأثير العديد من النماذج المماثلة، بما في ذلك نموذج MoE المحلي الذي تبلغ تكلفته 100 مليار Skywork-MoE، ونموذج MoE overlord التقليدي Mixtral-8x22B، ونموذج MoE مفتوح المصدر الذي تبلغ قيمته 314 مليار معلمة Grok-1. -A86B الخ.
تحميل نماذج كبيرة مجانا
معانقة الوجه: https://huggingface.co/xverse/XVERSE-MoE-A36B
النطاق السحري: https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
جيثب: https://github.com/xverse-ai/XVERSE-MoE-A36B
الاستفسارات: [email protected]
الموقع الرسمي: chat.xverse.cn
المصدر المفتوح والاستخدام التجاري المجاني لـ XVERSE-MoE-A36B يخفض عتبة تطبيقات الذكاء الاصطناعي وسيعزز بشكل كبير تطوير وتطبيق تكنولوجيا الذكاء الاصطناعي في الصين. مما لا شك فيه أن أدائها الممتاز وسهولة الوصول إليها يوفران أدوات وموارد قوية لمطوري وباحثي الذكاء الاصطناعي المحليين والأجانب. نتطلع إلى رؤية المزيد من التطبيقات المبتكرة بناءً على هذا النموذج في المستقبل.