El Laboratorio de Inteligencia Artificial de Shanghai lanzó la última versión del modelo de la serie Scholar Puyu, InternLM2.5, en el Foro Principal WAIC Science Frontier el 4 de julio de 2024. Las capacidades de razonamiento de esta versión en escenarios complejos se han mejorado significativamente, admite un contexto ultralargo de 1 millón y puede realizar búsquedas en Internet e integración de información de forma independiente, lo cual es un gran avance. El editor de Downcodes explicará detalladamente las funciones e información de código abierto de InternLM2.5.
El Laboratorio de Inteligencia Artificial de Shanghai lanzó una nueva versión del modelo de la serie Scholar Puyu, InternLM2.5, en el Foro Principal WAIC Science Frontier el 4 de julio de 2024. Las capacidades de razonamiento de esta versión en escenarios complejos se han mejorado integralmente, admite un contexto ultralargo de 1 millón y puede realizar búsquedas en Internet de forma independiente e integrar información de cientos de páginas web.
InternLM2.5 lanzó tres versiones de parámetros del modelo, a saber, 1.8B, 7B y 20B, para adaptarse a diferentes escenarios de aplicaciones y necesidades de los desarrolladores. La versión 1.8B es un modelo ultraligero, mientras que la versión 20B proporciona un rendimiento integral más sólido y admite escenarios prácticos más complejos. Todos estos modelos son de código abierto y se pueden encontrar en la página de inicio de modelos grandes de la serie Scholar·Puyu, en la página de inicio de ModelScope y en la página de inicio de Hugging Face.
InternLM2.5 itera en múltiples tecnologías de síntesis de datos, lo que mejora significativamente las capacidades de razonamiento del modelo. En particular, la tasa de precisión en el conjunto de evaluación matemática MATH alcanzó el 64,7%. Además, el modelo mejora las capacidades de procesamiento de la longitud del contexto mediante un entrenamiento eficiente en la etapa previa al entrenamiento.
Los modelos de la serie InternLM2.5 también logran una integración perfecta con marcos de ajuste y inferencia posteriores, incluido el marco de ajuste fino XTuner y el marco de inferencia LMDeploy desarrollados independientemente por el Laboratorio de Inteligencia Artificial de Shanghai, así como otros marcos con amplias bases de usuarios en el comunidad como vLLM y Ollama y llama.cpp. La herramienta SWIFT lanzada por la comunidad Moda también admite la inferencia, el ajuste y la implementación de los modelos de la serie InternLM2.5.
La experiencia de aplicación de estos modelos incluye razonamiento complejo de varios pasos, comprensión precisa de las intenciones de una conversación de varios turnos, operaciones de control de formato flexibles y la capacidad de seguir instrucciones complejas. Se proporcionan guías detalladas de instalación y uso para facilitar que los desarrolladores comiencen rápidamente.
Página de inicio del modelo grande serie Scholar·Puyu:
https://internlm.intern-ai.org.cn
Página de inicio de ModelScope:
https://www.modelscope.cn/organization/Shanghai_AI_Laboratory?tab=model
Página de inicio de Hugging Face:
https://huggingface.co/internlm
Enlace de código abierto de InternLM2.5:
https://github.com/InternLM/InternLM
La versión de código abierto de InternLM2.5 ofrece nuevas posibilidades para la investigación y las aplicaciones en el campo de la inteligencia artificial. Se cree que su potente rendimiento y facilidad de uso atraerán a muchos desarrolladores a explorar e innovar. ¡El editor de Downcodes espera ver más aplicaciones excelentes basadas en InternLM2.5!