Der Herausgeber von Downcodes erfuhr, dass Cohere kürzlich zwei leistungsstarke Open-Source-KI-Modelle veröffentlicht hat – Aya Expanse 8B und 35B, die offiziell auf der Hugging Face-Plattform eingeführt werden. Diese beiden Modelle zielen darauf ab, die Leistungslücke zwischen Basismodellen in verschiedenen Sprachen zu schließen, die KI-Fähigkeiten in 23 Sprachen erheblich zu verbessern und globalen KI-Forschern komfortablere Tools und leistungsfähigere Mehrsprachenfunktionen zur Verfügung zu stellen. Das Aya-Projekt hat sich zum Ziel gesetzt, den Zugang zu nicht englischsprachigen Basismodellen zu erweitern. Seine Datenarbitrage-Methode und die „Global Preference“-Trainingsstrategie verhindern effektiv die Generierung minderwertiger Inhalte und verbessern die Gesamtleistung und Sicherheit des Modells. Lassen Sie uns als Nächstes auf die Besonderheiten beider Modelle eingehen.
Kürzlich kündigte Cohere die Einführung von zwei neuen Open-Source-KI-Modellen an, mit denen durch sein Aya-Projekt die Sprachlücke zwischen Basismodellen verringert werden soll. Die beiden neuen Modelle mit den Namen Aya Expanse8B und 35B sind jetzt auf Hugging Face erhältlich. Die Einführung dieser beiden Modelle hat die KI-Leistung in 23 Sprachen deutlich verbessert.
Cohere sagte in seinem Blog, dass das 8B-Parametermodell es Forschern auf der ganzen Welt erleichtert, Durchbrüche zu erzielen, während das 32B-Parametermodell branchenführende Mehrsprachigkeitsfunktionen bietet.
Ziel des Aya-Projekts ist es, den Zugriff auf das Basismodell auf weitere Sprachen außer Englisch zu erweitern. Zuvor startete die Forschungsabteilung von Cohere letztes Jahr das Aya-Projekt und veröffentlichte im Februar das Aya101 Large Language Model (LLM), das 101 Sprachen abdeckt. Darüber hinaus hat Cohere auch den Aya-Datensatz eingeführt, um das Modelltraining für andere Sprachen zu unterstützen.
Das Aya Expanse-Modell folgt in seinem Konstruktionsprozess vielen der Kernmethoden von Aya101. Cohere sagte, die Verbesserungen an Aya Expanse seien das Ergebnis jahrelanger Überarbeitung der Kernbausteine bei Durchbrüchen im Bereich maschinelles Lernen. Ihre Forschungsrichtung konzentriert sich hauptsächlich auf die Verringerung der Sprachlücke und hat einige wichtige Durchbrüche erzielt, wie z. B. Datenarbitrage, Präferenztraining für allgemeine Leistung und Sicherheit sowie Modellzusammenführung.
In mehreren Benchmark-Tests sagte Cohere, dass die beiden Modelle von Aya Expanse KI-Modelle ähnlicher Größe von Unternehmen wie Google, Mistral und Meta übertrafen.
Unter ihnen übertraf Aya Expanse32B Gemma227B, Mistral8x22B und sogar den größeren Llama3.170B in mehrsprachigen Benchmark-Tests. Das kleine 8B-Modell übertraf auch Gemma29B, Llama3.18B und Ministral8B mit Gewinnquoten zwischen 60,4 % und 70,6 %.
Um zu vermeiden, dass schwer verständliche Inhalte generiert werden, verwendet Cohere eine Datenerfassungsmethode namens Datenarbitrage. Dieser Ansatz ermöglicht ein besseres Training von Modellen, insbesondere für Sprachen mit geringen Ressourcen. Darüber hinaus konzentriert sich Cohere darauf, Modelle in Richtung „globaler Präferenzen“ zu leiten und die Perspektiven verschiedener Kulturen und Sprachen zu berücksichtigen, um die Modellleistung und -sicherheit zu verbessern.
Das Aya-Programm von Cohere soll sicherstellen, dass LLMs bei der Forschung in nicht-englischen Sprachen bessere Leistungen erbringen können. Obwohl viele LLMs irgendwann in anderen Sprachen veröffentlicht werden, stehen sie häufig vor dem Problem unzureichender Daten beim Training von Modellen, insbesondere für Sprachen mit geringen Ressourcen. Daher sind die Bemühungen von Cohere besonders wichtig, um beim Aufbau mehrsprachiger KI-Modelle zu helfen.
Offizieller Blog: https://cohere.com/blog/aya-expanse-connecting-our-world
Highlight:
? **Cohere führt zwei neue KI-Modelle ein**, die darauf abzielen, die Sprachlücke der Basismodelle zu schließen und Leistungsverbesserungen in 23 Sprachen zu unterstützen.
**Das Aya Expanse-Modell schneidet gut ab** und übertrifft viele seiner Konkurrenten bei mehrsprachigen Benchmarks.
Die **Datenarbitrage-Methode** hilft dem Modell, die Generierung minderwertiger Inhalte zu vermeiden, globale kulturelle und sprachliche Perspektiven zu berücksichtigen und den Trainingseffekt mehrsprachiger KI zu verbessern.
Alles in allem hat das von Cohere eingeführte Aya Expanse-Modell erhebliche Fortschritte im Bereich der mehrsprachigen KI gemacht, und sein Open-Source-Charakter stellt auch wertvolle Ressourcen für die Forschung und Entwicklung der globalen KI-Community bereit. Der Herausgeber von Downcodes glaubt, dass dies den Fortschritt der mehrsprachigen KI-Technologie weiter vorantreiben und den globalen Informationsaustausch und die gemeinsame Nutzung fördern wird.