Downcodes-Editorberichte: Das französische Startup für künstliche Intelligenz Mistral AI hat kürzlich eine neue Generation von Sprachmodellen veröffentlicht, Ministral3B und Ministral8B, die Teil der „Ministraux“-Reihe sind und speziell für Edge-Geräte und Edge-Computing-Szenarien entwickelt wurden. Diese beiden Modelle unterstützen Kontextlängen von bis zu 128.000 Token, bieten erhebliche Vorteile beim Datenschutz und bei der lokalen Verarbeitung und bieten starke Unterstützung für Anwendungen wie lokale Übersetzung, intelligente Offline-Assistenten, Datenanalyse und autonome Robotik. Seine Leistung übertrifft viele ähnliche Modelle in mehreren Benchmark-Tests und beweist damit seine starke Wettbewerbsfähigkeit.
Kürzlich kündigte das französische Startup für künstliche Intelligenz Mistral AI seine Sprachmodelle der neuen Generation an: Ministral3B und Ministral8B.
Die beiden neuen Modelle sind Teil der „Ministraux“-Serie, die für Edge-Geräte und Edge-Computing-Szenarien konzipiert ist und Kontextlängen von bis zu 128.000 Token unterstützt. Dies bedeutet, dass diese Modelle nicht nur leistungsstark sind, sondern auch in Situationen eingesetzt werden können, in denen Datenschutz und lokale Verarbeitung besonders wichtig sind.
Laut Mistral eignet sich die Ministraux-Modellreihe ideal für eine Reihe von Anwendungen wie lokale Übersetzung, intelligente Offline-Assistenten, Datenanalyse und autonome Robotik. Um die Effizienz weiter zu verbessern, können Ministraux-Modelle auch mit größeren Sprachmodellen (wie Mistral Large) kombiniert werden, um als effektive Vermittler in mehrstufigen Arbeitsabläufen zu fungieren.
In Bezug auf die Leistung zeigen die von Mistral bereitgestellten Benchmarks, dass die Ministral3B und 8B viele ähnliche Modelle in mehreren Kategorien übertreffen, wie z. B. Song's Gemma22B und Meta's Llama3.18B. Erwähnenswert ist, dass Minitral3B trotz einer geringeren Anzahl von Parametern in einigen Tests seinen Vorgänger Mistral7B übertraf.
Tatsächlich schnitt Mistral8B in allen Tests gut ab, insbesondere in Bereichen wie Wissen, Allgemeinwissen, Funktionsaufrufe und Mehrsprachigkeit.
Bezüglich der Preisgestaltung sind diese beiden neuen Modelle von Ministry AI bereits über API verfügbar. Die Gebühr von Ministral8B beträgt 0,10 US-Dollar pro Million Token, während die Gebühr von Ministral3B 0,04 US-Dollar beträgt. Darüber hinaus stellt Mistral Modellgewichte für den Ministral8B Instruct für Forschungszwecke zur Verfügung. Es ist erwähnenswert, dass diese beiden neuen Mistral-Modelle bald auch über Cloud-Partner wie Google Vertex und AWS eingeführt werden.
Highlight:
– Mistral AI führt Minitral3B und 8B ein, die Kontextlängen von bis zu 128.000 Token unterstützen.
- Diese beiden Modelle eignen sich für Anwendungen wie lokale Übersetzung, Offline-Assistenten, Datenanalyse und autonome Roboter.
- Was die Preisgestaltung betrifft, beträgt die Gebühr pro Million Token für Ministral8B 0,10 US-Dollar und die von Ministral3B 0,04 US-Dollar.
Alles in allem bringen Minitral3B und 8B von Mistral AI mit ihrer leistungsstarken Leistung, langen Kontextlänge und flexiblen Anwendungsszenarien neue Möglichkeiten in den Bereich der künstlichen Intelligenz. Man geht davon aus, dass diese beiden Modelle eine wichtige Rolle bei Edge-Computing- und Lokalisierungsanwendungen spielen werden. Der Herausgeber von Downcodes wird der weiteren Entwicklung weiterhin Aufmerksamkeit schenken.