Редактор Downcodes сообщает: Google опубликовала важную новость на Gemma Developer Day в Токио — официально выпущена японская версия модели Gemma! Эта модель искусственного интеллекта, имеющая всего 2 миллиарда параметров, может плавно обрабатывать японский и английский языки. Ее производительность сравнима с GPT-3.5. Она успешно преодолела проблему «катастрофического забывания», которой подвержены небольшие модели при изучении новых языков. способности. Этот прорывной прогресс приносит новую надежду в область искусственного интеллекта.
Google сообщила важную новость на Дне разработчиков Gemma, проходившем в Токио: была официально представлена новая японская версия модели Gemma. Эта небольшая и мощная модель искусственного интеллекта, имеющая масштаб всего в 2 миллиарда параметров, может обрабатывать как японский, так и английский языки, демонстрируя производительность, сравнимую с GPT-3.5.
Этот технологический прорыв особенно привлекателен. В сфере ИИ небольшие модели часто сталкиваются с проблемой катастрофического забывания при изучении новых языков, то есть потери ранее приобретенных способностей в процессе приобретения новых знаний. Японская версия Джеммы успешно преодолела эту проблему и достигла идеального баланса двуязычных способностей.
Чтобы способствовать участию мирового сообщества разработчиков, Google не только открыл вес моделей через платформы Kaggle и Hugging Face, но также предоставил полные учебные материалы и примеры кода. Благодаря обтекаемому дизайну эта модель может работать даже на мобильных устройствах, открывая новые возможности для приложений периферийных вычислений.
Google также запустил конкурс на разблокировку глобальной связи Gemma на сумму до 150 000 долларов США, чтобы побудить разработчиков адаптировать Gemma к большему количеству языков. В настоящее время запущены проекты адаптации для арабского, вьетнамского и зулусовского языков. В то же время проект Навараса в Индии работает над поддержкой 12 индийских языков, а другая команда изучает оптимизацию корейских диалектов.
Будучи последней моделью серии Gemma2, исходный код которой был открыт Google в конце июля, эта модель соответствует концепции дизайна «маленького и большого». Как и аналогичные продукты, выпускаемые такими компаниями, как Meta, он ориентирован на эффективность и возможности локализованной обработки. Стоит отметить, что производительность этой модели с 2 миллиардами параметров даже превосходит LLaMA-2 с 70 миллиардами параметров в некоторых задачах.
Разработчики и исследователи могут бесплатно получить доступ к Gemma-2-2B и другим моделям серии Gemma через несколько платформ, таких как Hugging Face, Google AI Studio и Google Colab, и эти модели также были выпущены на рынок моделей Vertex AI. Эта серия инициатив предоставит больше инновационных возможностей разработчикам ИИ по всему миру.
На этот раз Google открыла японскую версию модели Gemma и активно продвигала ее глобальное применение, демонстрируя свою решимость продолжать инновации в области искусственного интеллекта и предоставляя разработчикам по всему миру больше возможностей для изучения и практики. Мы с нетерпением ждем, когда модель Gemma обеспечит удобство для большего количества языков и сценариев приложений в будущем. Я верю, что эта маленькая, но мощная модель сыграет большую роль в области искусственного интеллекта.