Informes del editor de Downcodes: MiniCPM-V2.6, este modelo final multimodal de parámetros 8B de OpenBMB, recientemente logró resultados impresionantes en GitHub y Hugging Face, ubicándose entre los 3 primeros, y el número de estrellas de GitHub superó las 10,000. ¡Y el número de descargas superó el millón! Supera ampliamente al GPT-4V en términos de comprensión de una sola imagen, múltiples imágenes y video, y por primera vez integra funciones de alta gama como comprensión de video en tiempo real y comprensión conjunta de múltiples imágenes. Su rendimiento eficiente y su conveniente método de implementación lo convierten en una medida importante del límite de las capacidades del modelo final, que ha atraído una amplia atención en el círculo tecnológico global.
Desde su lanzamiento, la última versión 2.6 de la serie MiniCPM-V ha ascendido rápidamente al Top 3 en las listas de tendencias de GitHub y HuggingFace, las principales comunidades de código abierto del mundo, y su número de estrellas de GitHub ha superado las 10.000. Desde su debut el 1 de febrero, la serie MiniCPM se ha descargado más de un millón de veces, convirtiéndose en una medida importante del límite de las capacidades del modelo del lado del cliente.
MiniCPM-V2.6 logra mejoras integrales de rendimiento en la comprensión de una sola imagen, múltiples imágenes y video con sus parámetros 8B, superando al GPT-4V. Este modelo multimodal de extremo integra por primera vez funciones de alta gama, como comprensión de video en tiempo real, comprensión conjunta de múltiples imágenes e ICL de múltiples imágenes. Solo ocupa 6 GB de memoria en el lado back-end cuantificado y la velocidad de inferencia del lado final es de hasta 18 tokens/s, que es un 33% más rápido que el modelo de la generación anterior. Admite llama.cpp, ollama, vllm. inferencia y admite varios idiomas.
Este avance tecnológico ha despertado una respuesta entusiasta en el círculo tecnológico global y muchos desarrolladores y miembros de la comunidad han mostrado gran interés en el lanzamiento de MiniCPM-V2.6.
Actualmente, se han anunciado al público las direcciones de código abierto de GitHub y Hugging Face de MiniCPM-V2.6 y se han proporcionado enlaces a los tutoriales de implementación de llama.cpp, ollama y vllm.
Dirección de código abierto MiniCPM-V2.6GitHub:
https://github.com/OpenBMB/MiniCPM-V
Dirección de código abierto MiniCPM-V2.6Hugging Face:
https://huggingface.co/openbmb/MiniCPM-V-2_6
dirección del tutorial de implementación de llama.cpp, ollama, vllm:
https://modelbest.feishu.cn/docx/Duptdntfro2Clfx2DzuczHxAnhc
El código abierto de MiniCPM-V2.6 proporciona a los desarrolladores herramientas potentes y tutoriales de implementación convenientes. Se cree que promoverá el desarrollo de tecnología de modelo multimodal final y brindará posibilidades innovadoras a más escenarios de aplicación. El editor de Downcodes seguirá atento a su progreso posterior, ¡así que estad atentos!