Informes del editor de Downcodes: Google lanzó la versión japonesa del modelo Gemma AI en el Gemma Developer Day en Tokio. Este modelo compacto con sólo 2 mil millones de parámetros tiene un rendimiento comparable al GPT-3.5 y puede ejecutarse en dispositivos móviles. No solo funciona bien en japonés, sino que también supera el problema del "olvido catastrófico" común en modelos pequeños en el ajuste fino en varios idiomas, manteniendo su capacidad en inglés. Google también abrió generosamente pesos de modelos, materiales de capacitación y ejemplos, y organizó una competencia con un premio de hasta $ 150,000 para alentar a los desarrolladores a adaptar el modelo Gemma a más idiomas locales y promover la comunicación global.
El modelo Gemma lanzado esta vez tiene un buen rendimiento en el procesamiento del idioma japonés y mantiene su capacidad en inglés. Esto es particularmente importante para los modelos pequeños, porque al ajustar un nuevo lenguaje, pueden enfrentar el problema del "olvido catastrófico", donde el conocimiento recién aprendido sobrescribe la información aprendida anteriormente. Pero Gemma superó con éxito este problema y demostró poderosas capacidades de procesamiento del lenguaje.
Lo que es más digno de mencionar es que Google también publicó inmediatamente los pesos, los materiales de capacitación y los ejemplos del modelo a través de plataformas como Kaggle y Hugging Face para ayudar a los desarrolladores a comenzar más rápido. Esto significa que los desarrolladores pueden utilizar fácilmente este modelo para la computación local, lo que brindará más posibilidades, especialmente en aplicaciones de computación de vanguardia.
Para animar a más desarrolladores internacionales, Google también ha lanzado un concurso llamado "Desbloqueando la comunicación global con Gemma" con un premio de hasta 150.000 dólares estadounidenses. Este programa está diseñado para ayudar a los desarrolladores a adaptar los modelos Gemma a los idiomas locales. Actualmente ya hay proyectos en marcha en árabe, vietnamita y zulú. En India, los desarrolladores están trabajando en el proyecto "Navarasa", que planea optimizar el modelo para admitir 12 idiomas indios, mientras que otro equipo está trabajando en perfeccionar el soporte para dialectos coreanos.
El lanzamiento de la serie de modelos Gemma2 pretende conseguir mayores prestaciones con menos parámetros. En comparación con modelos similares de otras empresas como Meta, Gemma2 funciona igual de bien. En algunos casos, Gemma2 con 200 millones de parámetros puede incluso superar a algunos modelos con 70 mil millones de parámetros, como el LLaMA-2. Los desarrolladores e investigadores pueden obtener el modelo Gemma-2-2B y otros modelos Gemma a través de los planes gratuitos de Hugging Face, Google AI Studio y Google Colab, y también se pueden encontrar en Vertex AI Model Garden.
Entrada al sitio web oficial: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Cara de abrazo: https://huggingface.co/google
Colaboración de Google: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Con todo, el lanzamiento del modelo Gemma proporciona a los desarrolladores herramientas potentes y ofrece nuevas posibilidades para el desarrollo de inteligencia artificial en aplicaciones multilingües. Su diseño liviano y modelo abierto de intercambio de recursos promoverán la popularización y aplicación de la tecnología de inteligencia artificial, y vale la pena esperar su desarrollo y aplicación futuros.