أصدرت Mistral AI مؤخرًا نموذج اللغة الكبيرة Mixtral 8x7B استنادًا إلى نموذج SMoE، والذي يتمتع بأداء مماثل لـ GPT-3.5 ويؤدي أداءً جيدًا في مهام مثل الرياضيات وتوليد الأكواد وفهم القراءة. يتمتع هذا النموذج بسرعة استدلال أسرع وقد تم فتح مصدره باستخدام إصدار Instruct بموجب ترخيص Apache2.0. تمثل هذه الخطوة خطوة كبيرة إلى الأمام في مجال نماذج اللغات الكبيرة مفتوحة المصدر، وتبشر أيضًا بالهدف الطموح لشركة Mistral AI المتمثل في نماذج مستوى GPT-4 مفتوحة المصدر في عام 2024.
تطلق Mistral AI Mixtral 8x7B، الذي يعتمد على نموذج SMoE ويتمتع بأداء مماثل لـ GPT-3.5. يُستخدم النموذج على نطاق واسع في مهام مثل الرياضيات وتوليد الأكواد وفهم القراءة، وتكون سرعة التفكير أسرع. Mixtral8x7B وMixtral8x7B – Instruct مفتوحان المصدر بموجب ترخيص Apache2.0. تخطط Mistral AI لفتح نماذج مستوى GPT-4 في عام 2024، لتقود مجال نماذج اللغات الكبيرة مفتوحة المصدر.المصدر المفتوح لـ Mixtral 8x7B يخفض عتبة الدخول لنماذج اللغات الكبيرة، ويوفر موارد قيمة للمطورين والباحثين، ويعزز ازدهار النظام البيئي للنماذج الكبيرة مفتوحة المصدر. ومن الجدير التطلع إلى تطويره اللاحق والمصدر المفتوح لـ GPT - نماذج من 4 مستويات .