Rapports de l'éditeur de downcodes : Google a publié la version japonaise du modèle Gemma AI lors du Gemma Developer Day à Tokyo. Ce modèle compact avec seulement 2 milliards de paramètres a des performances comparables à GPT-3.5 et peut être exécuté sur des appareils mobiles. Non seulement il fonctionne bien en japonais, mais il surmonte également le problème de « l'oubli catastrophique » courant dans les petits modèles lors du réglage fin multilingue, tout en conservant sa capacité en anglais. Google a également généreusement ouvert les pondérations des modèles, le matériel de formation et les exemples, et a organisé un concours avec un prix pouvant aller jusqu'à 150 000 $ pour encourager les développeurs à adapter le modèle Gemma à davantage de langues locales et à promouvoir la communication mondiale.
Le modèle Gemma publié cette fois fonctionne bien dans le traitement de la langue japonaise tout en conservant ses capacités en anglais. Ceci est particulièrement important pour les petits modèles, car lors de la mise au point d'un nouveau langage, ils peuvent être confrontés au problème de « l'oubli catastrophique », où les connaissances nouvellement acquises écrasent les informations apprises précédemment. Mais Gemma a réussi à surmonter ce problème et a démontré de puissantes capacités de traitement du langage.
Ce qui mérite d'être mentionné, c'est que Google a également immédiatement publié les poids, le matériel de formation et des exemples du modèle via des plateformes telles que Kaggle et Hugging Face pour aider les développeurs à démarrer plus rapidement. Cela signifie que les développeurs peuvent facilement utiliser ce modèle pour l'informatique locale, ce qui apportera plus de possibilités, notamment dans les applications d'informatique de pointe.
Afin d'encourager davantage de développeurs internationaux, Google a également lancé un concours intitulé "Déverrouiller la communication mondiale avec Gemma" avec un prix pouvant aller jusqu'à 150 000 dollars. Ce programme est conçu pour aider les développeurs à adapter les modèles Gemma aux langues locales. Actuellement, des projets sont déjà en cours en arabe, en vietnamien et en zoulou. En Inde, les développeurs travaillent sur le projet « Navarasa », qui prévoit d'optimiser le modèle pour prendre en charge 12 langues indiennes, tandis qu'une autre équipe travaille à affiner la prise en charge des dialectes coréens.
Le lancement de la série de modèles Gemma2 vise à obtenir des performances plus élevées avec moins de paramètres. Comparé à des modèles similaires d'autres sociétés telles que Meta, Gemma2 fonctionne tout aussi bien. Dans certains cas, Gemma2 avec 200 millions de paramètres peut même surpasser certains modèles avec 70 milliards de paramètres, comme LLaMA-2. Les développeurs et les chercheurs peuvent obtenir le modèle Gemma-2-2B et d'autres modèles Gemma via les plans gratuits de Hugging Face, Google AI Studio et Google Colab, et ils peuvent également être trouvés dans le Vertex AI Model Garden.
Entrée du site officiel : https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Visage câlin : https://huggingface.co/google
Google Colab : https://ai.google.dev/gemma/docs/keras_inference?hl=de
Dans l’ensemble, la sortie du modèle Gemma fournit aux développeurs des outils puissants et apporte de nouvelles possibilités pour le développement de l’intelligence artificielle dans des applications multilingues. Sa conception légère et son modèle ouvert de partage de ressources favoriseront la vulgarisation et l'application de la technologie de l'intelligence artificielle, et il vaut la peine d'attendre avec impatience son développement et ses applications futurs.