Rapports de l'éditeur de downcodes : MiniCPM-V2.6, ce modèle final multimodal à 8 paramètres d'OpenBMB, a récemment obtenu des résultats impressionnants sur GitHub et Hugging Face, se classant parmi les 3 meilleurs, et le nombre d'étoiles GitHub a dépassé les 10 000. et le nombre de téléchargements a dépassé le million ! Il surpasse largement le GPT-4V en termes de compréhension d'images uniques, multi-images et vidéo, et intègre pour la première fois des fonctions haut de gamme telles que la compréhension vidéo en temps réel et la compréhension conjointe multi-images. Ses performances efficaces et sa méthode de déploiement pratique en font une mesure importante des limites des capacités du modèle final, ce qui a attiré une large attention dans le cercle technologique mondial.
Depuis sa sortie, la dernière version 2.6 de la série MiniCPM-V s'est rapidement hissée dans le Top 3 des listes de tendances de GitHub et HuggingFace, les principales communautés open source au monde, et son nombre d'étoiles GitHub a dépassé les 10 000. Depuis son lancement le 1er février, la série MiniCPM a été téléchargée plus d'un million de fois, devenant ainsi une mesure importante de la limite des capacités des modèles côté client.
MiniCPM-V2.6 permet d'améliorer considérablement les performances dans la compréhension d'une image unique, de plusieurs images et de vidéos grâce à ses paramètres 8B, surpassant GPT-4V. Ce modèle multimodal côté extrémité intègre pour la première fois des fonctions haut de gamme telles que la compréhension vidéo en temps réel, la compréhension conjointe multi-images et l'ICL multi-images. Il n'occupe que 6 Go de mémoire côté back-end quantifié et la vitesse d'inférence côté extrémité atteint 18 jetons/s, soit 33 % plus rapide que le modèle de la génération précédente. Il prend en charge llama.cpp, ollama, vllm. inférence et prend en charge plusieurs langues.
Cette avancée technologique a suscité une réaction enthousiaste dans le cercle technologique mondial, et de nombreux développeurs et membres de la communauté ont manifesté un grand intérêt pour la sortie de MiniCPM-V2.6.
À l'heure actuelle, les adresses open source GitHub et Hugging Face de MiniCPM-V2.6 ont été annoncées au public et des liens vers les didacticiels de déploiement llama.cpp, ollama et vllm ont été fournis.
Adresse open source MiniCPM-V2.6GitHub :
https://github.com/OpenBMB/MiniCPM-V
Adresse open source MiniCPM-V2.6Hugging Face :
https://huggingface.co/openbmb/MiniCPM-V-2_6
llama.cpp, ollama, adresse du didacticiel de déploiement vllm :
https://modelbest.feishu.cn/docx/Duptdntfro2Clfx2DzuczHxAnhc
L'open source de MiniCPM-V2.6 fournit aux développeurs des outils puissants et des didacticiels de déploiement pratiques. On pense qu'il favorisera le développement de la technologie de modèle multimodal côté extrémité à l'avenir et apportera des possibilités innovantes à davantage de scénarios d'application. L'éditeur de Downcodes continuera à être attentif à ses avancées ultérieures, alors restez connectés !