أصدرت Google إصدارًا يابانيًا جديدًا من نموذج GEMMA في يوم مطور GEMMA في طوكيو. يتغلب هذا الاختراق التكنولوجي على مشكلة "النسيان الكارثي" للنماذج الصغيرة عند تعلم لغات جديدة ، وتحقيق توازن مثالي بين القدرات اليابانية واللغوية الإنجليزية.
هذا الاختراق التكنولوجي هو لافتة للنظر بشكل خاص. في مجال الذكاء الاصطناعى ، غالبًا ما تواجه النماذج الصغيرة تحدي "نسيان الكارثي" عند تعلم لغات جديدة- أي وفقد قدراتها السابقة على إتقانها في عملية الحصول على معرفة جديدة. ومع ذلك ، فإن النسخة اليابانية من Gemma تتغلب بنجاح على هذه المشكلة وتحقق توازنًا مثاليًا للمهارات ثنائية اللغة.
لتعزيز مشاركة مجتمع المطورين العالمي ، لا تفتح Google أوزان النماذج فقط من خلال منصات الوجه Kaggle و Ungging ، ولكنها توفر أيضًا مواد تدريب كاملة ورمز عينة. بفضل تصميمه المبسط ، يمكن أن يعمل النموذج محليًا على الأجهزة المحمولة ، مما يؤدي إلى فتح إمكانيات جديدة لتطبيقات الحوسبة الحافة.
أطلقت Google أيضًا مسابقة "Gemma Global Communication Unlock" بقيمة 150،000 دولار ، وشجع المطورين على تكييف GEMMA مع المزيد من اللغات. حاليًا ، تم إطلاق مشاريع التكيف مع اللغة العربية والفيتنامية والزولو. وفي الوقت نفسه ، يعمل مشروع "نافاراسا" الهندي لدعم 12 لغة هندية ، ويقوم فريق آخر باستكشاف تحسين اللهجات الكورية.
بصفته أحدث عضو في سلسلة GEMMA2 من Google مفتوحة في نهاية يوليو ، يلتزم هذا النموذج بمفهوم التصميم "Made Big with Small Bhofts". مثل المنتجات المماثلة التي أطلقتها شركات مثل META ، فإنه يركز على الكفاءة وقدرات المعالجة المترجمة. تجدر الإشارة إلى أن نموذج المعلمة البالغ 2 مليار أداء أفضل من LLAMA-2 مع 70 مليار معلمة في بعض المهام.
يمكن للمطورين والباحثين الوصول إلى GEMMA-2B ونماذج GEMMA الأخرى مجانًا من خلال منصات متعددة مثل Hugging Face و Google AI Colab. ستجلب هذه السلسلة من التدابير إمكانيات أكثر إبداعًا لمطوري الذكاء الاصطناعي في جميع أنحاء العالم.
لا يوضح هذا الإصدار من Google موقعه الرئيسي في تقنية الذكاء الاصطناعي فحسب ، بل يوفر أيضًا إمكانيات أكثر ابتكارًا للمطورين العالميين.