Rapports de l'éditeur de downcodes : Google a publié une grande nouvelle lors du Gemma Developer Day à Tokyo : la version japonaise du modèle Gemma est officiellement lancée ! Ce modèle d'IA avec seulement 2 milliards de paramètres peut gérer le japonais et l'anglais en douceur. Ses performances sont comparables à celles de GPT-3.5. Il a réussi à surmonter le problème de « l'oubli catastrophique » auquel les petits modèles sont sujets lors de l'apprentissage de nouvelles langues. capacités. Ces progrès révolutionnaires apportent un nouvel espoir dans le domaine de l’IA.
Google a publié une grande nouvelle lors du Gemma Developer Day qui s'est tenu à Tokyo : la nouvelle version japonaise du modèle Gemma a été officiellement dévoilée. Avec une échelle de seulement 2 milliards de paramètres, ce petit et puissant modèle d'IA peut gérer à la fois le japonais et l'anglais, affichant des performances comparables à GPT-3.5.
Cette avancée technologique est particulièrement frappante. Dans le domaine de l’IA, les petits modèles sont souvent confrontés au défi d’un oubli catastrophique lors de l’apprentissage de nouvelles langues, c’est-à-dire qu’ils perdent des capacités précédemment acquises au cours du processus d’acquisition de nouvelles connaissances. La version japonaise de Gemma a réussi à surmonter ce problème et à atteindre un équilibre parfait entre les capacités bilingues.
Afin de promouvoir la participation de la communauté mondiale des développeurs, Google a non seulement ouvert les poids des modèles via les plateformes Kaggle et Hugging Face, mais a également fourni du matériel de formation complet et des exemples de code. Grâce à sa conception simplifiée, ce modèle peut même fonctionner de manière native sur les appareils mobiles, ouvrant ainsi de nouvelles possibilités pour les applications Edge Computing.
Google a également lancé un concours mondial de déverrouillage des communications Gemma d'une valeur pouvant atteindre 150 000 $ US pour encourager les développeurs à adapter Gemma à davantage de langues. Actuellement, des projets d'adaptation pour l'arabe, le vietnamien et le zoulou ont été lancés. Parallèlement, le projet Navarasa en Inde travaille à la prise en charge de 12 langues indiennes, et une autre équipe étudie l'optimisation des dialectes coréens.
En tant que dernier membre de la série open source Gemma2 lancée par Google fin juillet, ce modèle adhère au concept de design du petit et du grand. À l'instar des produits similaires lancés par des sociétés telles que Meta, il se concentre sur l'efficacité et les capacités de traitement localisées. Il convient de mentionner que les performances de ce modèle à 2 milliards de paramètres dépassent même les 70 milliards de paramètres LLaMA-2 sur certaines tâches.
Les développeurs et les chercheurs peuvent accéder gratuitement au Gemma-2-2B et aux autres modèles de la série Gemma via plusieurs plates-formes telles que Hugging Face, Google AI Studio et Google Colab, et ces modèles ont également été lancés sur le marché des modèles Vertex AI. Cette série d’initiatives offrira davantage de possibilités innovantes aux développeurs d’IA du monde entier.
Google a cette fois ouvert la version japonaise du modèle Gemma et a activement promu son application mondiale, démontrant sa détermination à continuer d'innover dans le domaine de l'IA et offrant davantage d'opportunités aux développeurs du monde entier d'explorer et de mettre en pratique. Nous attendons avec impatience que le modèle Gemma apporte plus de commodité à davantage de langages et de scénarios d'application à l'avenir. Je crois que ce modèle petit mais puissant jouera un rôle plus important dans le domaine de l’IA.