Kürzlich hat Mistral, ein von der Tsinghua-Universität veröffentlichtes inländisches Großmodell, auf GitHub begeisterte Reaktionen hervorgerufen. Seine 2B-Größe übertrifft die Leistung vieler „Großmodelle“, was erstaunlich ist. Dies spiegelt sich nicht nur in seiner starken Leistung wider, sondern auch in seinem extrem niedrigen Kostenvorteil: Die Inferenzkosten von 1.700.000 Token können mit nur 1 Yuan erzielt werden, was weitaus niedriger ist als bei ähnlichen Produkten. Darüber hinaus verfügt Mistral auch über multimodale Fähigkeiten und weist ein starkes Anwendungspotenzial auf. Dieser Vorfall beweist einmal mehr, dass im Bereich der KI exzellentes Modelldesign und Kostenkontrolle gleichermaßen entscheidend sind und nicht einfach „Volume is King“ gilt.
Der Artikel konzentriert sich auf:
Kürzlich veröffentlichte die Abteilung der Tsinghua-Universität einen im Inland hergestellten Mistral. Dieses große Modell, das nur 2 Milliarden groß ist, erhielt unerwartet einen herzlichen Empfang auf GitHub und gewann an einem Tag mehr als 300 Sterne. In Bezug auf die Leistung ist dieses Produkt ziemlich konkurrenzfähig. Es gibt einen großen Kontrast zwischen Leistung und Größe. Es hat viele gängige „großvolumige“ Großmodelle in vielen Errungenschaften übertroffen. Der Kostenaspekt ist noch erstaunlicher. Es kostet nur 1 Yuan, 1.700.000 Token zu den Inferenzkosten zu erhalten, die Kosten sind viel niedriger. Zusätzlich zu den oben genannten Eigenschaften verfügt das Produkt auch über multimodale Fähigkeiten und zeigt hervorragende Ergebnisse.
Der Erfolg von Mistral zeigt den Durchbruch bei Leistung und Kosten inländischer Großmodelle und liefert auch neue Ideen für die Entwicklungsrichtung großer Modelle in der Zukunft. Ich glaube, dass wir in Zukunft weitere ähnliche Überraschungen erleben werden, die den kontinuierlichen Fortschritt der KI-Technologie fördern.