قامت Mistral AI بتحركات متكررة مؤخرًا، حيث أصدرت تحديثًا رئيسيًا للنموذج الأساسي Mistral7B v0.2 في حدث Cerebral Valley، ويدعم النموذج الآن سياق 32K، وألغى النافذة المنزلقة، وضبط معلمة Rope Theta على 1e6. واللافت أكثر هو أن شركة Mistral AI تعاونت مع Microsoft وأنفقت 16 مليون دولار أمريكي لإصدار نموذج اللغة واسع النطاق Mistral Large، والذي يقيس بشكل مباشر GPT-4، مما يدل على قدرتها التنافسية القوية وأهدافها التنموية الطموحة في مجال نماذج اللغات واسعة النطاق. . وهذا يشير إلى أن المنافسة في مجال الذكاء الاصطناعي ستصبح أكثر حدة في المستقبل.
قامت Mistral AI مؤخرًا بفتح مصدر Mistral7B v0.2Base Model، الذي تم الإعلان عنه في حدث Cerebral Valley. بعد التحديث، أصبح يدعم سياق 32 كيلو بايت، ويلغي النافذة المنزلقة، ويضبط Rope Theta على 1e6. تعاونت مع مايكروسوفت واستثمرت 16 مليون دولار أمريكي لإصدار نموذج ميسترال الكبير، الذي يتنافس مباشرة مع جي بي تي-4. تلتزم شركة Mistral AI، التي تواصل التطور، بالتفوق على المنافسين التقليديين وإطلاق نماذج جديدة.تشير سلسلة إجراءات Mistral AI إلى أنها تعمل على توسيع السوق بنشاط وتلتزم بتولي مكانة رائدة في مجال نماذج اللغات واسعة النطاق. في المستقبل، سنستمر في الاهتمام بتطوير Mistral AI وأدائه في المنافسة مع نماذج اللغات الكبيرة الأخرى.