Downcodes-Redakteur berichtet: Google hat beim Gemma Developer Day in Tokio große Neuigkeiten veröffentlicht – die japanische Version des Gemma-Modells wird offiziell eingeführt! Dieses KI-Modell mit nur 2 Milliarden Parametern kann problemlos mit GPT-3.5 umgehen. Es hat das Problem des „katastrophalen Vergessens“, zu dem kleine Modelle beim Erlernen neuer Sprachen neigen, erfolgreich überwunden Fähigkeiten. Dieser bahnbrechende Fortschritt bringt neue Hoffnung in den Bereich der KI.
Google gab beim Gemma Developer Day in Tokio eine große Neuigkeit bekannt: Die neue japanische Version des Gemma-Modells wurde offiziell vorgestellt. Mit einer Skala von nur 2 Milliarden Parametern kann dieses kleine und leistungsstarke KI-Modell sowohl Japanisch als auch Englisch verarbeiten und weist eine mit GPT-3.5 vergleichbare Leistung auf.
Dieser technologische Durchbruch ist besonders auffällig. Im Bereich der KI stehen kleine Modelle oft vor der Herausforderung des katastrophalen Vergessens beim Erlernen neuer Sprachen, d. h. dem Verlust zuvor erworbener Fähigkeiten beim Erwerb neuen Wissens. Die japanische Version von Gemma hat dieses Problem erfolgreich überwunden und ein perfektes Gleichgewicht der zweisprachigen Fähigkeiten erreicht.
Um die Beteiligung der globalen Entwicklergemeinschaft zu fördern, hat Google nicht nur die Modellgewichte über die Plattformen Kaggle und Hugging Face geöffnet, sondern auch vollständige Schulungsmaterialien und Beispielcode bereitgestellt. Dank seines schlanken Designs kann dieses Modell sogar nativ auf Mobilgeräten ausgeführt werden, was neue Möglichkeiten für Edge-Computing-Anwendungen eröffnet.
Google hat außerdem einen globalen Wettbewerb zum Freischalten der Gemma-Kommunikation im Wert von bis zu 150.000 US-Dollar gestartet, um Entwickler zu ermutigen, Gemma für weitere Sprachen anzupassen. Derzeit wurden Anpassungsprojekte für Arabisch, Vietnamesisch und Zulu gestartet. Gleichzeitig arbeitet das Navarasa-Projekt in Indien an der Unterstützung von 12 indischen Sprachen, und ein anderes Team erforscht die Optimierung koreanischer Dialekte.
Als neuestes Mitglied der Gemma2-Serie, die Google Ende Juli als Open Source bereitgestellt hat, folgt dieses Modell dem Designkonzept von Klein und Groß. Wie ähnliche Produkte von Unternehmen wie Meta konzentriert es sich auf Effizienz und lokalisierte Verarbeitungsmöglichkeiten. Es ist erwähnenswert, dass die Leistung dieses 2-Milliarden-Parameter-Modells bei einigen Aufgaben sogar die 70-Milliarden-Parameter von LLaMA-2 übertrifft.
Entwickler und Forscher können über mehrere Plattformen wie Hugging Face, Google AI Studio und Google Colab kostenlos auf Gemma-2-2B und andere Modelle der Gemma-Serie zugreifen. Diese Modelle wurden auch auf dem Vertex AI-Modellmarkt eingeführt. Diese Reihe von Initiativen wird KI-Entwicklern auf der ganzen Welt mehr innovative Möglichkeiten bieten.
Google hat dieses Mal die japanische Version des Gemma-Modells geöffnet und seine globale Anwendung aktiv gefördert. Damit zeigt es seine Entschlossenheit, weiterhin Innovationen im Bereich der KI voranzutreiben und Entwicklern auf der ganzen Welt mehr Möglichkeiten zum Erkunden und Üben zu bieten. Wir freuen uns darauf, dass das Gemma-Modell in Zukunft mehr Sprachen und Anwendungsszenarien komfortabler machen wird. Ich glaube, dass dieses kleine, aber leistungsstarke Modell eine größere Rolle im Bereich der KI spielen wird.