Googleは、東京のGemma Developer DayでGemmaモデルの新しいバージョンをリリースしました。この技術的なブレークスルーは、新しい言語を学ぶときの小さなモデルの「壊滅的な忘却」問題を克服し、日本と英語のバイリンガル能力の完全なバランスをとっています。
この技術的なブレークスルーは、特に目を引くものです。 AIの分野では、小さなモデルは、新しい言語を学習するとき、つまり新しい知識を獲得する過程で以前の習得能力を失うとき、「壊滅的な忘却」の課題にしばしば直面しています。ただし、Gemmaの日本語版はこの問題を克服し、バイリンガルスキルの完全なバランスを達成しています。
グローバルな開発者コミュニティの参加を促進するために、GoogleはKaggleおよびHugging Face Platformを介してモデルの重みをオープンするだけでなく、完全なトレーニング資料とサンプルコードを提供します。合理化された設計のおかげで、モデルはモバイルデバイスでローカルに実行され、エッジコンピューティングアプリケーションの新しい可能性を開きます。
Googleはまた、最大150,000ドル相当の「Gemma Global Communication Unlock」競争を開始し、開発者がGemmaをより多くの言語に適応させることを奨励しました。現在、アラビア語、ベトナム語、ズールーの適応プロジェクトが開始されています。一方、インドの「ナバラサ」プロジェクトは12のインド言語をサポートするために取り組んでおり、別のチームは韓国方言の最適化を調査しています。
GoogleのGemma2シリーズの最新メンバーが7月末にソースを開いたため、このモデルは「小さな利益をもって大きくする」というデザインコンセプトを順守しています。 METAなどの企業によって開始された同様の製品と同様に、効率とローカライズされた処理機能に焦点を当てています。この20億パラメーターモデルは、一部のタスクで700億パラメーターを備えたLlama-2よりもさらに優れたパフォーマンスを発揮することに言及する価値があります。
開発者と研究者は、Gemma-2-2Bや、Hugging Face、Google AI Studio、Google Colabなどの複数のプラットフォームを介して無料でアクセスできます。この一連の措置は、世界中のAI開発者に、より革新的な可能性をもたらします。
Googleからのこのリリースは、AIテクノロジーでの主要な位置を実証するだけでなく、グローバルな開発者にとってより革新的な可能性を提供します。