Relatórios do editor de Downcodes: O Google lançou grandes novidades no Gemma Developer Day em Tóquio - a versão japonesa do modelo Gemma foi lançada oficialmente! Este modelo de IA com apenas 2 bilhões de parâmetros pode lidar com japonês e inglês sem problemas. Seu desempenho é comparável ao GPT-3.5. Ele superou com sucesso o problema de "esquecimento catastrófico" que os modelos pequenos são propensos ao aprender novos idiomas. habilidades. Este progresso revolucionário traz uma nova esperança ao campo da IA.
O Google divulgou uma grande novidade no Gemma Developer Day realizado em Tóquio: a nova versão japonesa do modelo Gemma foi oficialmente revelada. Com uma escala de apenas 2 bilhões de parâmetros, este pequeno e poderoso modelo de IA pode lidar com japonês e inglês, apresentando desempenho comparável ao GPT-3.5.
Este avanço tecnológico é particularmente atraente. No campo da IA, os pequenos modelos enfrentam frequentemente o desafio do esquecimento catastrófico ao aprender novas línguas – isto é, perder capacidades previamente adquiridas no processo de aquisição de novos conhecimentos. A versão japonesa do Gemma superou com sucesso esse problema e alcançou um equilíbrio perfeito de habilidades bilíngues.
Para promover a participação da comunidade global de desenvolvedores, o Google não apenas abriu os pesos dos modelos por meio das plataformas Kaggle e Hugging Face, mas também forneceu materiais de treinamento completos e exemplos de código. Graças ao seu design simplificado, este modelo pode até ser executado nativamente em dispositivos móveis, abrindo novas possibilidades para aplicações de computação de ponta.
O Google também lançou uma competição global de desbloqueio de comunicação Gemma no valor de até US$ 150.000 para incentivar os desenvolvedores a adaptarem o Gemma para mais idiomas. Atualmente, foram lançados projetos de adaptação para árabe, vietnamita e zulu. Ao mesmo tempo, o projeto Navarasa na Índia está trabalhando no suporte a 12 línguas indianas, e outra equipe está explorando a otimização dos dialetos coreanos.
Como o mais recente membro da série Gemma2, de código aberto pelo Google no final de julho, este modelo segue o conceito de design de pequeno e grande porte. Assim como produtos similares lançados por empresas como a Meta, ele se concentra na eficiência e na capacidade de processamento localizado. Vale ressaltar que o desempenho deste modelo de 2 bilhões de parâmetros supera até mesmo o LLaMA-2 de 70 bilhões de parâmetros em algumas tarefas.
Desenvolvedores e pesquisadores podem acessar Gemma-2-2B e outros modelos da série Gemma gratuitamente por meio de múltiplas plataformas, como Hugging Face, Google AI Studio e Google Colab, e esses modelos também foram lançados no mercado de modelos Vertex AI. Esta série de iniciativas trará possibilidades mais inovadoras para desenvolvedores de IA em todo o mundo.
Desta vez, o Google abriu a versão japonesa do modelo Gemma e promoveu ativamente sua aplicação global, demonstrando sua determinação em continuar a inovar no campo da IA e proporcionando mais oportunidades para desenvolvedores de todo o mundo explorarem e praticarem. Esperamos que o modelo Gemma traga conveniência para mais linguagens e cenários de aplicação no futuro. Acredito que este modelo pequeno mas poderoso desempenhará um papel mais importante no campo da IA.