Google veröffentlichte am Tokyo Gemma-Entwicklertag eine neue japanische Version des Gemma-AI-Modells. Dies ist zweifellos ein großer Durchbruch im Bereich der künstlichen Intelligenz. Fördern Sie die Beteiligung der Entwickler und richten Sie einen Wettbewerbsbonus von bis zu 150.000 US -Dollar ein, um Entwickler zu ermutigen, Gemma -Modelle an mehr Lokalsprachen anzupassen und die globale Kommunikation zu fördern.
Am kürzlich in Tokio abgehaltenen Gemma -Entwicklertag hat Google offiziell eine neue japanische Version des Gemma -AI -Modells gestartet. Die Leistung dieses Modells ist vergleichbar mit der von GPT-3,5, aber seine Parameter betragen nur 2 Milliarden, was sehr klein und zum Laufen auf mobilen Geräten geeignet ist.
Das diesmal veröffentlichte Gemma -Modell ist in der japanischen Verarbeitung gut abschnitten und behält gleichzeitig seine Fähigkeit in englischer Sprache bei. Dies ist besonders wichtig für kleine Modelle, da sie bei der Feinabstimmung neuer Sprachen möglicherweise dem Problem des "katastrophalen Vergessens" konfrontiert sind, dass das neu erlernte Wissen die Informationen abdeckt, die sie zuvor gelernt haben. Aber Gemma überwindet dieses Problem erfolgreich und zeigt starke Funktionen der Sprachverarbeitung.
Es ist mehr erwähnenswert, dass Google auch die Gewichte, Trainingsmaterialien und Beispiele des Modells über Plattformen wie Kaggle und das Gesicht sofort veröffentlicht hat, um den Entwicklern dabei zu helfen, schneller loszulegen. Dies bedeutet, dass Entwickler dieses Modell problemlos für lokales Computing verwenden können, insbesondere in Edge Computing -Anwendungen, was mehr Möglichkeiten bietet.
Um mehr internationale Entwickler zu ermutigen, hat Google auch einen Wettbewerb mit dem Titel "Entsperle Global Communications and Gemma" mit einem Preis von bis zu 150.000 US -Dollar gestartet. Dieses Programm soll Entwicklern helfen, Gemma -Modelle an Lokalsprachen anzupassen. Derzeit gibt es Projekte in Arabisch, Vietnamesisch und Zulu. In Indien arbeiten Entwickler am „Navarasa“ -Projekt, das das Modell zur Unterstützung von 12 indischen Sprachen optimieren will, während ein anderes Team an der Unterstützung koreanischer Dialekte durch Feinabstimmung arbeitet.
Der Start des Modells GEMMA2 -Serie zielt darauf ab, mit weniger Parametern eine höhere Leistung zu erzielen. Im Vergleich zu ähnlichen Modellen von anderen Unternehmen wie Meta spielt GEMMA2 in einigen Fällen gleich gut. offen
Das Gemma-2-2b-Modell und andere Gemma-Modelle können durch Umarmung von Face, Google AI Studios und Google Colabs kostenlosen Programmen erhalten werden und sind auch im Vertex AI-Modellgarten zu finden.
Offizielle Website Eingang: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2b-it
Umarmung Gesicht: https: //huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Schlüsselpunkte:
Google startet ein neues japanisches Gemma-AI-Modell mit Leistung mit GPT-35 und nur 200 Millionen Parametern, die für mobile Geräte geeignet sind.
Google startete den Wettbewerb "Global Communications and Gemma entsperren" mit einem Preis von 150.000 US -Dollar und förderte die Entwicklung von lokalen Sprachversionen.
Die Modelle der GEMMA2 -Serie erzielen eine hohe Leistung mit einer kleinen Anzahl von Parametern und können sogar größere Modelle übertreffen und das Anwendungspotential der Entwickler verbessern.
Kurz gesagt, die Veröffentlichung des Gemma -AI -Modells und der aktiven und offenen Strategie von Google wird die Entwicklung und Anwendung der Technologie für künstliche Intelligenz erheblich fördern, insbesondere für neue Möglichkeiten für mobile und Edge -Computing -Anwendungen, und es lohnt sich, sich auf seine Zukunft zu freuen weit verbreitete Anwendung und Innovation verursachten.