علم محرر Downcodes أن Cohere أصدرت مؤخرًا نموذجين قويين مفتوحي المصدر للذكاء الاصطناعي -Aya Expanse 8B و35B، اللذان تم إطلاقهما رسميًا على منصة Hugging Face. ويهدف هذان النموذجان إلى سد فجوة الأداء بين النماذج الأساسية بلغات مختلفة، وتحسين قدرات الذكاء الاصطناعي بشكل كبير في 23 لغة، وتزويد باحثي الذكاء الاصطناعي العالميين بأدوات أكثر ملاءمة وقدرات أكثر قوة متعددة اللغات. يلتزم مشروع Aya بتوسيع الوصول إلى النماذج الأساسية باللغة غير الإنجليزية. وتتجنب طريقة تحكيم البيانات واستراتيجية التدريب "التفضيل العالمي" بشكل فعال إنشاء محتوى منخفض الجودة وتحسين الأداء العام وأمان النموذج. بعد ذلك، دعونا نتعمق في تفاصيل كلا النموذجين.
أعلنت شركة Cohere مؤخرًا عن إطلاق نموذجين جديدين مفتوحي المصدر للذكاء الاصطناعي، بهدف تضييق الفجوة اللغوية للنماذج الأساسية من خلال مشروع Aya الخاص بها. النموذجان الجديدان، المسمى Aya Expanse8B و35B، متوفران الآن على Hugging Face. أدى إطلاق هذين النموذجين إلى تحسين أداء الذكاء الاصطناعي بشكل كبير في 23 لغة.
وقال كوهير في مدونته إن نموذج المعلمة 8B يسهل على الباحثين في جميع أنحاء العالم تحقيق اختراقات، في حين يوفر نموذج المعلمة 32B قدرات متعددة اللغات رائدة في الصناعة.
الهدف من مشروع Aya هو توسيع الوصول إلى النموذج الأساسي إلى المزيد من اللغات غير الإنجليزية. قبل ذلك، أطلق قسم الأبحاث في كوهير مشروع Aya العام الماضي وأصدر نموذج اللغة الكبيرة Aya101 (LLM) في فبراير، والذي يغطي 101 لغة. بالإضافة إلى ذلك، أطلقت Cohere أيضًا مجموعة بيانات Aya للمساعدة في التدريب النموذجي على اللغات الأخرى.
يتبع نموذج Aya Expanse العديد من الأساليب الأساسية لـ Aya101 في عملية البناء. وقال كوهير إن التحسينات التي تم إدخالها على Aya Expanse هي نتيجة سنوات من إعادة التفكير في العناصر الأساسية في اختراقات التعلم الآلي. يركز اتجاههم البحثي بشكل أساسي على تضييق الفجوة اللغوية، وقد حقق بعض الإنجازات الرئيسية، مثل مراجحة البيانات، والتدريب على التفضيلات للأداء العام والأمن، ودمج النماذج.
وفي العديد من الاختبارات المعيارية، قال كوهير إن نموذجي Aya Expanse تفوقا في الأداء على نماذج الذكاء الاصطناعي ذات الحجم المماثل من شركات مثل Google وMistral وMeta.
من بينها، تفوقت Aya Expanse32B على Gemma227B وMistral8x22B وحتى Llama3.170B الأكبر حجمًا في الاختبارات المعيارية متعددة اللغات. كما تجاوز طراز 8B الصغير أيضًا Gemma29B وLlama3.18B وMinistral8B، حيث تراوحت معدلات الفوز بين 60.4% و70.6%.
لتجنب إنشاء محتوى يصعب فهمه، تستخدم Cohere طريقة أخذ عينات من البيانات تسمى تحكيم البيانات. يتيح هذا النهج تدريبًا أفضل للنماذج، خاصة بالنسبة للغات منخفضة الموارد. بالإضافة إلى ذلك، تركز Cohere على توجيه النماذج نحو "التفضيلات العالمية" ومراعاة وجهات نظر الثقافات واللغات المختلفة لتحسين أداء النموذج وأمنه.
يسعى برنامج Aya الخاص بـ Cohere إلى ضمان قدرة LLM على تحقيق أداء أفضل في البحث باللغات غير الإنجليزية. على الرغم من أن العديد من شهادات LLM سيتم إصدارها في نهاية المطاف بلغات أخرى، إلا أنها غالبًا ما تواجه مشكلة عدم كفاية البيانات عند تدريب النماذج، خاصة بالنسبة للغات منخفضة الموارد. ولذلك، فإن جهود Cohere لها أهمية خاصة في المساعدة على بناء نماذج ذكاء اصطناعي متعددة اللغات.
المدونة الرسمية: https://cohere.com/blog/aya-expanse-connecting-our-world
تسليط الضوء على:
** تطلق Cohere نموذجين جديدين للذكاء الاصطناعي **، ملتزمين بتضييق الفجوة اللغوية في النماذج الأساسية ودعم تحسينات الأداء في 23 لغة.
**يحقق نموذج Aya Expanse أداءً جيدًا**، حيث يتفوق على العديد من منافسيه في معايير متعددة اللغات.
**طريقة تحكيم البيانات** تساعد النموذج على تجنب إنشاء محتوى منخفض الجودة، والاهتمام بالمنظورات الثقافية واللغوية العالمية، وتحسين تأثير التدريب على الذكاء الاصطناعي متعدد اللغات.
بشكل عام، حقق نموذج Aya Expanse الذي أطلقته شركة Cohere تقدمًا كبيرًا في مجال الذكاء الاصطناعي متعدد اللغات، كما توفر طبيعته مفتوحة المصدر أيضًا موارد قيمة للبحث والتطوير في مجتمع الذكاء الاصطناعي العالمي. يعتقد محرر Downcodes أن هذا سيعزز التقدم في تكنولوجيا الذكاء الاصطناعي متعددة اللغات ويعزز تبادل المعلومات ومشاركتها على مستوى العالم.