Редактор Downcodes сообщает: Google выпустила японскую версию модели Gemma AI на Gemma Developer Day в Токио. Эта компактная модель, имеющая всего 2 миллиарда параметров, имеет производительность, сравнимую с GPT-3.5, и может запускаться на мобильных устройствах. Он не только хорошо работает на японском языке, но и преодолевает проблему «катастрофического забывания», характерную для небольших моделей при точной многоязычной настройке, сохраняя способность работать на английском языке. Google также щедро открыл веса моделей, учебные материалы и примеры и организовал конкурс с призом до 150 000 долларов, чтобы побудить разработчиков адаптировать модель Gemma к большему количеству местных языков и способствовать глобальному общению.
Модель Gemma, выпущенная на этот раз, хорошо справляется с обработкой японского языка, сохраняя при этом способность работать с английским языком. Это особенно важно для небольших моделей, поскольку при точной настройке нового языка они могут столкнуться с проблемой «катастрофического забывания», когда вновь полученные знания перезаписывают ранее изученную информацию. Но Джемма успешно преодолела эту проблему и продемонстрировала мощные возможности обработки языка.
Стоит еще упомянуть, что Google также немедленно опубликовал веса, учебные материалы и примеры модели через такие платформы, как Kaggle и Hugging Face, чтобы помочь разработчикам быстрее приступить к работе. Это означает, что разработчики могут легко использовать эту модель для локальных вычислений, что откроет больше возможностей, особенно в приложениях периферийных вычислений.
Чтобы привлечь больше международных разработчиков, Google также запустил конкурс под названием «Открытие глобального общения с Gemma» с призом до 150 000 долларов США. Эта программа призвана помочь разработчикам адаптировать модели Gemma к местным языкам. В настоящее время уже реализуются проекты на арабском, вьетнамском и зулусском языках. В Индии разработчики работают над проектом «Навараса», в рамках которого планируется оптимизировать модель для поддержки 12 индийских языков, а другая команда работает над тонкой настройкой поддержки корейских диалектов.
Запуск серии моделей Gemma2 направлен на достижение более высокой производительности при меньшем количестве параметров. По сравнению с аналогичными моделями других компаний, таких как Meta, Gemma2 работает одинаково хорошо. В некоторых случаях Gemma2 с 200 миллионами параметров может даже превосходить некоторые модели с 70 миллиардами параметров, такие как LLaMA-2. Разработчики и исследователи могут получить модель Gemma-2-2B и другие модели Gemma с помощью бесплатных планов Hugging Face, Google AI Studio и Google Colab, а также их можно найти в Vertex AI Model Garden.
Вход на официальный сайт: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it.
Обнимающее лицо: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
В целом выпуск модели Gemma предоставляет разработчикам мощные инструменты и открывает новые возможности для разработки искусственного интеллекта в многоязычных приложениях. Его легкий дизайн и модель открытого обмена ресурсами будут способствовать популяризации и применению технологии искусственного интеллекта, и стоит с нетерпением ждать ее дальнейшего развития и применения.