Das Shanghai Artificial Intelligence Laboratory gab kürzlich bekannt, dass sein selbst entwickeltes Scholar-Modell ein umfassendes Upgrade erhalten hat und eine neue Version von Scholar Puyu 3.0 (InternLM3) auf den Markt gebracht hat. Diese Version hat bedeutende Durchbrüche bei der Effizienz der Datennutzung und der Modellleistung erzielt, eine höhere Leistung bei geringeren Kosten erzielt und zum ersten Mal regelmäßige Dialoge und tiefgreifende Denkfunktionen integriert, wodurch die Leistung des Modells in realen Anwendungsszenarien erheblich verbessert wurde. Dieses Upgrade stellt nicht nur einen technologischen Durchbruch dar, sondern spiegelt auch Chinas Entschlossenheit und Stärke wider, weiterhin Innovationen im Bereich der künstlichen Intelligenz voranzutreiben.
Das Shanghai Artificial Intelligence Laboratory gab bekannt, dass sein Scholar-Modell ein wichtiges Versions-Upgrade erhalten hat und Scholar Puyu 3.0 (InternLM3) auf den Markt gebracht hat. Nach Angaben des Labors hat die neue Version durch ein verfeinertes Datenframework die Datennutzungseffizienz deutlich verbessert und so eine Steigerung der Denkdichte erreicht.
Das aktualisierte InternLM3-8B-Instruct-Modell verwendet nur 4T Daten für das Training. Laut offiziellen Angaben übertrifft seine Gesamtleistung die von Open-Source-Modellen gleicher Größe und die Schulungskosten werden um mehr als 75 % eingespart. Es ist erwähnenswert, dass diese Version zum ersten Mal die Integration regelmäßiger Dialoge und tiefgreifender Denkfähigkeiten in ein allgemeines Modell schafft, das verschiedene reale Nutzungsszenarien besser bewältigen kann.
Im Hinblick auf die Modellbewertung hat das Forschungsteam eine einheitliche und reproduzierbare Methode zur Bewertung basierend auf dem Open-Source-Bewertungsframework Sinan OpenCompass übernommen. Der Bewertungsinhalt umfasst mehr als zehn maßgebliche Bewertungssätze wie CMMLU und GPQA und deckt mehrere Dimensionen wie Argumentation, Mathematik, Programmierung, Befehlsfolge, Langtextgenerierung, Dialog und umfassende Leistung ab. Die Bewertungsergebnisse zeigen, dass Shusheng Puyu 3.0 in den meisten Bewertungssätzen die Nase vorn hat und seine Gesamtleistung der von GPT-4o-mini sehr nahe kommt.
Das Shanghai AI Laboratory gab außerdem an, dass diese neue Version des Modells das erste universelle Dialogmodell in der Open-Source-Community ist, das die Verwendung von Browsern unterstützt und Webseitensprünge von mehr als 20 Schritten unterstützen kann, wodurch ein detailliertes Mining ermöglicht wird Information.
Erfahrungsseite: https://internlm-chat.intern-ai.org.cn.
Highlight:
Das Shusheng Puyu 3.0-Modell wird mit 4T-Daten trainiert und seine umfassende Leistung übertrifft die von Open-Source-Modellen derselben Größenordnung, wodurch mehr als 75 % der Trainingskosten eingespart werden.
Das Modell punktet in mehreren maßgeblichen Bewertungssätzen und die Integration von Denk- und Dialogfähigkeiten wurde erheblich verbessert.
Das neue Modell unterstützt die Verwendung von Browsern und kann ein detailliertes Informations-Mining durchführen, was zu einem der Highlights der Open-Source-Community wird.
Alles in allem zeigt das Upgrade von Shusheng Puyu 3.0 Chinas bedeutenden Fortschritt im Bereich groß angelegter Sprachmodelle. Es wird erwartet, dass seine effizienten Trainingsmethoden und seine leistungsstarke Leistung die Anwendung der Technologie der künstlichen Intelligenz in weiteren Bereichen fördern werden, und es lohnt sich, einen Blick darauf zu werfen wir freuen uns auf die zukünftige Entwicklung.