MEGVII Technology bringt ein neues groß angelegtes Sprachmodell mit visuellem Vokabular namens Vary-toy auf den Markt, ein fortschrittliches Modell, das auf Standard-GPUs ausgeführt werden kann. Dieses Modell verbessert die Bildwahrnehmungsfähigkeiten erheblich, indem es die Erstellung des visuellen Vokabulars optimiert, und hat in mehreren Benchmark-Tests wie DocVQA, ChartQA und RefCOCO hervorragende Ergebnisse erzielt. Die geringe Größe des Vary-Toys macht es ideal für Forscher mit begrenzten Ressourcen und bietet ihnen ein effizientes und benutzerfreundliches Basismodell.
MEGVII Technology veröffentlicht Vary-toy, ein umfangreiches Sprachmodell mit erweitertem visuellem Vokabular, das für Standard-GPUs geeignet ist. Ziel ist es, die Bildwahrnehmung durch Optimierung der Erstellung des visuellen Vokabulars zu verbessern. Vary-toy hat in mehreren Benchmark-Tests, darunter DocVQA, ChartQA, RefCOCO usw., bemerkenswerte Ergebnisse erzielt. Seine geringe Größe macht es zu einem praktischen Maßstab für Forscher mit begrenzten Ressourcen. Die Forscher planen, den Code öffentlich zu veröffentlichen, um weitere Forschung und Akzeptanz voranzutreiben.
Die Veröffentlichung von Vary-toy demonstriert nicht nur die fortschrittliche technische Stärke von MEGVII Technology im Bereich Computer Vision, sondern stellt auch wertvolle Ressourcen für Wissenschaft und Industrie bereit. Der in Zukunft veröffentlichte Code wird den Fortschritt und die Anwendung in diesem Bereich weiter vorantreiben, worauf es sich zu freuen lohnt.