Google a publié une nouvelle version japonaise du modèle GEMMA AI au Tokyo Gemma Developer Day. C'est sans aucun doute une percée majeure dans le domaine de l'intelligence artificielle. Promouvoir la participation des développeurs et mettre en place un bonus de concurrence allant jusqu'à 150 000 $, encourageant les développeurs à adapter les modèles Gemma à des langues plus locales et à promouvoir la communication mondiale.
Lors de la Journée du développeur de Gemma qui s'est récemment tenue à Tokyo, Google a officiellement lancé une nouvelle version japonaise du modèle GEMMA AI. Les performances de ce modèle sont comparables à celles de GPT-3.5, mais ses paramètres ne sont que de 2 milliards, ce qui est très petit et adapté pour fonctionner sur des appareils mobiles.
Le modèle GEMMA publié cette fois fonctionne bien dans le traitement japonais, tout en maintenant sa capacité en anglais. Ceci est particulièrement important pour les petits modèles, car lorsqu'ils ont affiné de nouvelles langues, ils peuvent faire face au problème de «l'oubli catastrophique» que les connaissances nouvellement apprises couvrent les informations qu'ils ont apprises auparavant. Mais Gemma surmonte avec succès ce problème et démontre de fortes capacités de traitement du langage.
Il convient de mentionner que Google a également immédiatement publié les poids, les matériaux de formation et les exemples du modèle à travers des plates-formes telles que Kaggle et des câlins pour aider les développeurs à démarrer plus rapidement. Cela signifie que les développeurs peuvent facilement utiliser ce modèle pour l'informatique locale, en particulier dans les applications informatiques Edge, ce qui apportera plus de possibilités.
Pour encourager davantage de développeurs internationaux, Google a également lancé un concours appelé "Déverrouiller Global Communications and Gemma", avec un prix pouvant atteindre 150 000 $. Ce programme est conçu pour aider les développeurs à adapter les modèles Gemma aux langues locales. Actuellement, il existe des projets en arabe, vietnamien et zoulou. En Inde, les développeurs travaillent sur le projet «Navarasa», qui prévoit d'optimiser le modèle pour soutenir 12 langues indiennes, tandis qu'une autre équipe travaille à soutenir les dialectes coréens par un réglage fin.
Le lancement du modèle de la série GEMMA2 vise à atteindre des performances plus élevées avec moins de paramètres. Par rapport à des modèles similaires d'autres sociétés telles que Meta, Gemma2 fonctionne également bien. ouvrir
Le modèle GEMMA-2-2B et d'autres modèles GEMMA peuvent être obtenus en étreignant Face, Google AI Studios et les programmes gratuits de Google Colab, et ils peuvent également être trouvés dans le Garden Model Vertex AI.
Entrée officielle du site Web: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Face étreinte: https: //huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Points clés:
Google lance un nouveau modèle Japonais Gemma AI avec des performances comparables à GPT-35 et seulement 200 millions de paramètres, adaptés aux appareils mobiles.
Google a lancé le concours "Unlock Global Communications and Gemma" avec un prix de 150 000 $ et a encouragé le développement de versions linguistiques locales.
Les modèles de la série GEMMA2 obtiennent des performances élevées avec un petit nombre de paramètres et peuvent même dépasser les modèles plus grands et améliorer le potentiel d'application des développeurs.
En bref, la publication du modèle GEMMA AI et de la stratégie active et ouverte de Google favoriseront grandement le développement et l'application de la technologie de l'intelligence artificielle, en particulier de nouvelles possibilités pour les applications informatiques mobiles et Edge, et il vaut la peine d'être attendu à son avenir à l'échelle mondiale. Une application et une innovation généralisées provoquées.