ダウンコード編集者のレポート: Google は東京で開催された Gemma Developer Day で大きなニュースを発表しました - Gemma モデルの日本語版が正式に発売されました!わずか 20 億のパラメータを備えたこの AI モデルは、GPT-3.5 に匹敵するパフォーマンスを実現し、新しい言語を学習する際に起こりやすい「壊滅的な忘れ」の問題を見事に克服しました。能力。この画期的な進歩は、AI 分野に新たな希望をもたらします。
東京で開催された Gemma Developer Day で Google は大きなニュースを発表しました。Gemma の新しい日本語版モデルが正式に発表されました。わずか 20 億パラメータの規模で、この小型で強力な AI モデルは日本語と英語の両方を処理でき、GPT-3.5 に匹敵するパフォーマンスを示します。
この技術的進歩は特に目を引きます。 AI の分野では、小さなモデルは、新しい言語を学習する際に壊滅的な忘却、つまり、新しい知識を獲得する過程で以前に獲得した能力を失うという課題に直面することがよくあります。 Gemma の日本語版はこの問題をうまく克服し、バイリンガル能力の完璧なバランスを実現しました。
グローバルな開発者コミュニティの参加を促進するために、Google は Kaggle および Hugging Face プラットフォームを通じてモデルの重みを公開しただけでなく、完全なトレーニング資料とサンプル コードも提供しました。合理化された設計のおかげで、このモデルはモバイル デバイス上でネイティブに実行することもでき、エッジ コンピューティング アプリケーションの新たな可能性を開きます。
Google はまた、開発者が Gemma をより多くの言語に適応させることを奨励するために、最大 15 万米ドル相当の Gemma グローバル コミュニケーション アンロック コンテストを開始しました。現在、アラビア語、ベトナム語、ズールー語への適応プロジェクトが開始されています。同時に、インドの Navarasa プロジェクトは 12 のインド言語のサポートに取り組んでおり、別のチームは韓国語の方言の最適化を検討しています。
7 月末に Google によってオープンソース化された Gemma2 シリーズの最新メンバーとして、このモデルは小型と大型の設計コンセプトを遵守しています。 Meta などの企業が発売した同様の製品と同様に、効率とローカライズされた処理機能に重点を置いています。この 20 億パラメータ モデルのパフォーマンスは、一部のタスクでは 700 億パラメータの LLaMA-2 をも上回ることに言及する価値があります。
開発者や研究者は、Hugging Face、Google AI Studio、Google Colab などの複数のプラットフォームを通じて Gemma-2-2B および他の Gemma シリーズ モデルに無料でアクセスでき、これらのモデルは Vertex AI モデル市場でも発売されています。この一連の取り組みは、世界中のAI開発者にさらなる革新的な可能性をもたらすでしょう。
Googleは今回、Gemmaモデルの日本版を公開し、そのグローバルな適用を積極的に推進することで、AI分野で革新を続ける決意を示し、世界中の開発者に探索と実践のより多くの機会を提供した。今後、Gemma モデルがより多くの言語やアプリケーション シナリオに利便性をもたらすことを期待しています。この小さいながらも強力なモデルがAIの分野でより大きな役割を果たすと私は信じています。