Downcodes-Editorberichte: Google hat auf dem Gemma Developer Day in Tokio die japanische Version des Gemma-KI-Modells veröffentlicht. Dieses kompakte Modell mit nur 2 Milliarden Parametern hat eine mit GPT-3.5 vergleichbare Leistung und kann auf mobilen Geräten ausgeführt werden. Es funktioniert nicht nur gut auf Japanisch, sondern überwindet auch das bei kleinen Modellen häufig auftretende Problem des „katastrophalen Vergessens“ bei der Feinabstimmung mehrerer Sprachen und behält seine Fähigkeit auf Englisch bei. Google stellte außerdem Modellgewichte, Schulungsmaterialien und Beispiele großzügig zur Verfügung und veranstaltete einen Wettbewerb mit einem Preisgeld von bis zu 150.000 US-Dollar, um Entwickler zu ermutigen, das Gemma-Modell an weitere lokale Sprachen anzupassen und die globale Kommunikation zu fördern.
Das dieses Mal veröffentlichte Gemma-Modell schneidet bei der japanischen Sprachverarbeitung gut ab und behält gleichzeitig seine Fähigkeiten in Englisch bei. Dies ist besonders wichtig für kleine Modelle, da bei der Feinabstimmung einer neuen Sprache möglicherweise das Problem des „katastrophalen Vergessens“ auftritt, bei dem neu erlerntes Wissen zuvor erlernte Informationen überschreibt. Aber Gemma hat dieses Problem erfolgreich überwunden und leistungsstarke Sprachverarbeitungsfähigkeiten demonstriert.
Erwähnenswerter ist, dass Google auch sofort die Gewichte, Schulungsmaterialien und Beispiele des Modells über Plattformen wie Kaggle und Hugging Face veröffentlicht hat, um Entwicklern einen schnelleren Einstieg zu ermöglichen. Dies bedeutet, dass Entwickler dieses Modell problemlos für lokales Computing nutzen können, was insbesondere bei Edge-Computing-Anwendungen mehr Möglichkeiten mit sich bringen wird.
Um mehr internationale Entwickler zu ermutigen, hat Google außerdem einen Wettbewerb mit dem Titel „Unlocking Global Communication with Gemma“ ins Leben gerufen, bei dem ein Preisgeld von bis zu 150.000 US-Dollar winkt. Dieses Programm soll Entwicklern helfen, Gemma-Modelle an lokale Sprachen anzupassen. Derzeit laufen bereits Projekte auf Arabisch, Vietnamesisch und Zulu. In Indien arbeiten Entwickler am „Navarasa“-Projekt, das eine Optimierung des Modells zur Unterstützung von 12 indischen Sprachen vorsieht, während ein anderes Team an der Feinabstimmung der Unterstützung koreanischer Dialekte arbeitet.
Die Einführung der Gemma2-Modellreihe zielt darauf ab, eine höhere Leistung mit weniger Parametern zu erreichen. Im Vergleich zu ähnlichen Modellen anderer Unternehmen wie Meta schneidet Gemma2 gleich gut ab. In einigen Fällen kann Gemma2 mit 200 Millionen Parametern sogar einige Modelle mit 70 Milliarden Parametern übertreffen, wie beispielsweise LLaMA-2. Entwickler und Forscher können das Gemma-2-2B-Modell und andere Gemma-Modelle über die kostenlosen Pläne von Hugging Face, Google AI Studio und Google Colab erhalten und sie sind auch im Vertex AI Model Garden zu finden.
Offizieller Website-Eingang: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Umarmendes Gesicht: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Alles in allem stellt die Veröffentlichung des Gemma-Modells Entwicklern leistungsstarke Werkzeuge zur Verfügung und bringt neue Möglichkeiten für die Entwicklung künstlicher Intelligenz in mehrsprachigen Anwendungen. Sein leichtes Design und sein offenes Modell zur gemeinsamen Nutzung von Ressourcen werden die Popularisierung und Anwendung der Technologie der künstlichen Intelligenz fördern, und es lohnt sich, auf seine zukünftige Entwicklung und Anwendung zu blicken.