Informes del editor de Downcodes: Google lanzó una gran noticia en el Gemma Developer Day en Tokio: ¡se lanza oficialmente la versión japonesa del modelo Gemma! Este modelo de IA con solo 2 mil millones de parámetros puede manejar japonés e inglés sin problemas. Su rendimiento es comparable al de GPT-3.5. Ha superado con éxito el problema del "olvido catastrófico" al que son propensos los modelos pequeños al aprender nuevos idiomas. talento. Este gran avance trae nuevas esperanzas al campo de la IA.
Google dio una gran noticia en el Gemma Developer Day celebrado en Tokio: se presentó oficialmente la nueva versión japonesa del modelo Gemma. Con una escala de sólo 2 mil millones de parámetros, este pequeño y poderoso modelo de IA puede manejar tanto japonés como inglés, mostrando un rendimiento comparable al GPT-3.5.
Este avance tecnológico es particularmente llamativo. En el campo de la IA, los modelos pequeños a menudo enfrentan el desafío de un olvido catastrófico al aprender nuevos idiomas, es decir, perder habilidades previamente adquiridas en el proceso de adquirir nuevos conocimientos. La versión japonesa de Gemma ha superado con éxito este problema y logrado un equilibrio perfecto de habilidades bilingües.
Para promover la participación de la comunidad global de desarrolladores, Google no solo abrió los pesos de los modelos a través de las plataformas Kaggle y Hugging Face, sino que también proporcionó materiales de capacitación completos y códigos de muestra. Gracias a su diseño optimizado, este modelo puede incluso ejecutarse de forma nativa en dispositivos móviles, lo que abre nuevas posibilidades para aplicaciones informáticas de vanguardia.
Google también ha lanzado un concurso global de desbloqueo de comunicaciones de Gemma por un valor de hasta 150.000 dólares para animar a los desarrolladores a adaptar Gemma a más idiomas. Actualmente se han puesto en marcha proyectos de adaptación para árabe, vietnamita y zulú. Al mismo tiempo, el proyecto Navarasa en India está trabajando para respaldar 12 idiomas indios y otro equipo está explorando la optimización de los dialectos coreanos.
Como último miembro de la serie Gemma2 de código abierto de Google a finales de julio, este modelo se adhiere al concepto de diseño de pequeño y grande. Al igual que productos similares lanzados por empresas como Meta, se centra en la eficiencia y las capacidades de procesamiento localizadas. Vale la pena mencionar que el rendimiento de este modelo de 2 mil millones de parámetros incluso supera los 70 mil millones de parámetros LLaMA-2 en algunas tareas.
Los desarrolladores e investigadores pueden acceder a Gemma-2-2B y otros modelos de la serie Gemma de forma gratuita a través de múltiples plataformas como Hugging Face, Google AI Studio y Google Colab, y estos modelos también se han lanzado en el mercado de modelos Vertex AI. Esta serie de iniciativas brindará más posibilidades innovadoras a los desarrolladores de IA de todo el mundo.
Google abrió esta vez la versión japonesa del modelo Gemma y promovió activamente su aplicación global, demostrando su determinación de continuar innovando en el campo de la IA y brindando más oportunidades para que los desarrolladores de todo el mundo exploren y practiquen. Esperamos que el modelo Gemma brinde comodidad a más lenguajes y escenarios de aplicaciones en el futuro. Creo que este modelo pequeño pero poderoso desempeñará un papel más importante en el campo de la IA.