ダウンコード編集者のレポート: Google は東京で開催された Gemma Developer Day で Gemma AI モデルの日本語版をリリースしました。わずか 20 億のパラメーターを備えたこのコンパクトなモデルは、GPT-3.5 に匹敵するパフォーマンスを備え、モバイル デバイス上で実行できます。日本語で優れたパフォーマンスを発揮するだけでなく、多言語の微調整において小規模モデルにありがちな「致命的な忘れ」問題も克服し、英語での能力を維持します。 Google はまた、開発者が Gemma モデルをより多くの現地言語に適応させ、グローバルなコミュニケーションを促進することを奨励するために、モデルの重み、トレーニング資料、サンプルを寛大に公開し、最大 15 万ドルの賞金が支払われるコンテストを設定しました。
今回リリースされたGemmaモデルは、英語での処理能力を維持しながら、日本語処理でも優れた性能を発揮します。新しい言語を微調整するときに、新しく学習した知識が以前に学習した情報を上書きする「壊滅的な忘却」の問題に直面する可能性があるため、これは小規模モデルにとって特に重要です。しかし、Gemma はこの問題をうまく克服し、強力な言語処理能力を実証しました。
さらに注目に値するのは、開発者がより早く開始できるように、Google が Kaggle や Hugging Face などのプラットフォームを通じてモデルの重み、トレーニング資料、サンプルをすぐにリリースしたことです。これは、開発者がローカル コンピューティングにこのモデルを簡単に使用できることを意味し、特にエッジ コンピューティング アプリケーションでより多くの可能性をもたらします。
より多くの国際的な開発者を奨励するために、Google は最高 150,000 米ドルの賞金を賭けた「Unlocking Global Communication with Gemma」というコンテストも立ち上げました。このプログラムは、開発者が Gemma モデルを現地の言語に適応できるように設計されています。現在、アラビア語、ベトナム語、ズールー語ですでにプロジェクトが進行中です。インドでは、開発者が「Navarasa」プロジェクトに取り組んでおり、インドの 12 言語をサポートするようにモデルを最適化する計画があり、別のチームは韓国語の方言のサポートの微調整に取り組んでいます。
Gemma2 シリーズ モデルの発売は、より少ないパラメータでより高いパフォーマンスを実現することを目的としています。 Meta などの他社の同様のモデルと比較すると、Gemma2 は同等のパフォーマンスを発揮し、場合によっては、2 億個のパラメーターを備えた Gemma2 が、LLaMA-2 などの 700 億個のパラメーターを備えた一部のモデルを上回ることもあります。開発者と研究者は、Hugging Face、Google AI Studio、Google Colab の無料プランを通じて Gemma-2-2B モデルおよびその他の Gemma モデルを入手でき、Vertex AI Model Garden でも見つけることができます。
公式ウェブサイトの入り口: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
ハグフェイス: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
全体として、Gemma モデルのリリースは開発者に強力なツールを提供し、多言語アプリケーションにおける人工知能の開発に新たな可能性をもたらします。その軽量設計とオープンリソース共有モデルは、人工知能技術の普及と応用を促進し、将来の開発と応用に期待する価値があります。