Google a publié une nouvelle version japonaise du modèle GEMMA lors de la Journée du développeur Gemma à Tokyo. Cette percée technologique surmonte le problème de «l'oubli catastrophique» des petits modèles lors de l'apprentissage de nouvelles langues, atteignant un équilibre parfait entre les capacités bilingues japonaises et anglaises.
Cette percée technologique est particulièrement accrocheuse. Dans le domaine de l'IA, les petits modèles sont souvent confrontés au défi de «l'oubli catastrophique» lors de l'apprentissage de nouvelles langues - c'est-à-dire de perdre leurs capacités de maîtrise précédentes en train d'acquérir de nouvelles connaissances. Cependant, la version japonaise de Gemma surmonte avec succès ce problème et réalise un équilibre parfait des compétences bilingues.
Pour promouvoir la participation de la communauté mondiale des développeurs, Google ouvre non seulement des poids du modèle via les plateformes de visage Kaggle et étreignant, mais fournit également des documents de formation complets et un exemple de code. Grâce à sa conception rationalisée, le modèle peut même s'exécuter localement sur des appareils mobiles, ouvrant de nouvelles possibilités pour les applications informatiques Edge.
Google a également lancé une compétition "Gemma Global Communication Unlock" d'une valeur de 150 000 $, encourageant les développeurs à adapter Gemma à plus de langues. Actuellement, des projets d'adaptation pour l'arabe, le vietnamien et le zoulu sont lancés. Pendant ce temps, le projet "Navarasa" de l'Inde s'efforce de soutenir 12 langues indiennes, et une autre équipe explore l'optimisation des dialectes coréens.
En tant que dernier membre de la série GEMMA2 de Google Open à la fin de juillet, ce modèle adhère au concept de conception de "faire grand avec de petits profits". Comme des produits similaires lancés par des sociétés telles que Meta, il se concentre sur l'efficacité et les capacités de traitement localisées. Il convient de mentionner que ce modèle de paramètres de 2 milliards fonctionne encore mieux que le LLAMA-2 avec 70 milliards de paramètres dans certaines tâches.
Les développeurs et les chercheurs peuvent accéder gratuitement à Gemma-2-2b et à d'autres modèles Gemma Series via plusieurs plates-formes telles que Hugging Face, Google AI Studio et Google Colab. Cette série de mesures apportera des possibilités plus innovantes aux développeurs d'IA du monde entier.
Cette version de Google démontre non seulement sa position principale dans la technologie de l'IA, mais offre également des possibilités plus innovantes pour les développeurs mondiaux.