Relatórios do editor de downcodes: O Google lançou a versão japonesa do modelo Gemma AI no Gemma Developer Day em Tóquio. Este modelo compacto com apenas 2 bilhões de parâmetros possui desempenho comparável ao GPT-3.5 e pode ser executado em dispositivos móveis. Ele não só tem um bom desempenho em japonês, mas também supera o problema de “esquecimento catastrófico” comum em modelos pequenos no ajuste fino multilíngue, mantendo sua habilidade em inglês. O Google também abriu generosamente pesos de modelo, materiais de treinamento e exemplos, e criou uma competição com um prêmio de até US$ 150.000 para incentivar os desenvolvedores a adaptar o modelo Gemma para mais idiomas locais e promover a comunicação global.
O modelo Gemma lançado desta vez tem um bom desempenho no processamento da língua japonesa, mantendo sua capacidade em inglês. Isto é particularmente importante para modelos pequenos, porque ao afinar uma nova linguagem, podem enfrentar o problema do “esquecimento catastrófico”, onde o conhecimento recentemente aprendido substitui a informação aprendida anteriormente. Mas Gemma superou esse problema com sucesso e demonstrou poderosas capacidades de processamento de linguagem.
O que vale mais a pena mencionar é que o Google também divulgou imediatamente os pesos, materiais de treinamento e exemplos do modelo por meio de plataformas como Kaggle e Hugging Face para ajudar os desenvolvedores a começarem mais rápido. Isso significa que os desenvolvedores podem usar facilmente esse modelo para computação local, o que trará mais possibilidades, especialmente em aplicações de computação de ponta.
Para incentivar mais desenvolvedores internacionais, o Google também lançou uma competição chamada “Unlocking Global Communication with Gemma” com um prêmio de até US$ 150 mil. Este programa foi projetado para ajudar os desenvolvedores a adaptar os modelos Gemma aos idiomas locais. Atualmente já existem projetos em andamento em árabe, vietnamita e zulu. Na Índia, os desenvolvedores estão trabalhando no projeto “Navarasa”, que planeja otimizar o modelo para suportar 12 idiomas indianos, enquanto outra equipe está trabalhando no ajuste fino do suporte para dialetos coreanos.
O lançamento da série de modelos Gemma2 visa alcançar maior desempenho com menos parâmetros. Comparado com modelos semelhantes de outras empresas como a Meta, o Gemma2 tem um desempenho igualmente bom. Em alguns casos, o Gemma2 com 200 milhões de parâmetros pode até superar alguns modelos com 70 bilhões de parâmetros, como o LLaMA-2. Desenvolvedores e pesquisadores podem obter o modelo Gemma-2-2B e outros modelos Gemma por meio dos planos gratuitos do Hugging Face, Google AI Studio e Google Colab, e também podem ser encontrados no Vertex AI Model Garden.
Entrada do site oficial: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Abraçando o rosto: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Em suma, o lançamento do modelo Gemma oferece aos desenvolvedores ferramentas poderosas e traz novas possibilidades para o desenvolvimento de inteligência artificial em aplicações multilíngues. O seu design leve e modelo de partilha de recursos abertos promoverão a popularização e aplicação da tecnologia de inteligência artificial, e vale a pena aguardar com expectativa o seu desenvolvimento e aplicação futuros.