Mistral AI hat kürzlich sein großes Sprachmodell Mixtral 8x7B auf Basis des SMoE-Modells veröffentlicht, dessen Leistung mit GPT-3.5 vergleichbar ist und bei Aufgaben wie Mathematik, Codegenerierung und Leseverständnis gute Leistungen erbringt. Dieses Modell verfügt über eine schnellere Inferenzgeschwindigkeit und wurde mit der Instruct-Version unter der Apache2.0-Lizenz als Open Source bereitgestellt. Dieser Schritt markiert einen großen Fortschritt im Bereich der Open-Source-Modelle für große Sprachen und kündigt auch das ehrgeizige Ziel von Mistral AI an, im Jahr 2024 Open-Source-Modelle auf GPT-4-Ebene zu entwickeln.
Mistral AI bringt Mixtral 8x7B auf den Markt, das auf dem SMoE-Modell basiert und eine mit GPT-3.5 vergleichbare Leistung aufweist. Das Modell wird häufig für Aufgaben wie Mathematik, Codegenerierung und Leseverständnis verwendet und weist eine schnellere Argumentationsgeschwindigkeit auf. Mixtral8x7B und Mixtral8x7B – Instruct sind Open Source unter der Apache2.0-Lizenz. Mistral AI plant, im Jahr 2024 Modelle auf GPT-4-Ebene als Open-Source-Modelle herauszubringen und damit führend im Bereich der Open-Source-Modelle für große Sprachen zu sein.Die Open Source von Mixtral 8x7B senkt die Eintrittsschwelle für große Sprachmodelle, stellt wertvolle Ressourcen für Entwickler und Forscher bereit und fördert den Wohlstand des Open Source-Ökosystems für große Modelle. Es lohnt sich, auf die spätere Entwicklung und die Open Source von GPT zu blicken -4-Level-Modelle.