El Laboratorio de Inteligencia Artificial de Shanghai anunció recientemente que su modelo académico de desarrollo propio recibió una importante actualización y lanzó una nueva versión de Scholar Puyu 3.0 (InternLM3). Esta versión ha logrado avances significativos en la eficiencia del uso de datos y el rendimiento del modelo, logrando un mayor rendimiento a un costo menor y, por primera vez, integra capacidades de diálogo regular y pensamiento en profundidad, mejorando significativamente el rendimiento del modelo en escenarios de aplicaciones reales. Esta actualización no sólo logra un avance tecnológico, sino que también refleja la determinación y la fuerza de China para continuar innovando en el campo de la inteligencia artificial.
El Laboratorio de Inteligencia Artificial de Shanghai anunció que su modelo académico recibió una importante actualización de versión y lanzó Scholar Puyu 3.0 (InternLM3). Según el laboratorio, la nueva versión ha mejorado significativamente la eficiencia del uso de datos a través de un marco de datos refinado, logrando así un aumento en la densidad del pensamiento.
El modelo InternLM3-8B-Instruct actualizado solo utiliza 4T de datos para la capacitación. Los funcionarios dicen que su rendimiento integral excede el de los modelos de código abierto del mismo tamaño y los costos de capacitación se ahorran en más del 75%. Vale la pena señalar que esta versión logra por primera vez la integración de diálogo regular y capacidades de pensamiento profundo en un modelo general, y puede hacer frente mejor a diversos escenarios de uso de la vida real.
En términos de evaluación de modelos, el equipo de investigación adoptó un método de evaluación unificado y reproducible basado en el marco de evaluación de código abierto Sinan OpenCompass. El contenido de la evaluación incluye más de diez conjuntos de evaluación autorizados, como CMMLU y GPQA, que cubren múltiples dimensiones como razonamiento, matemáticas, programación, seguimiento de instrucciones, generación de textos largos, diálogo y desempeño integral. Los resultados de la evaluación muestran que Shusheng Puyu 3.0 lidera la puntuación en la mayoría de los conjuntos de evaluación y su rendimiento general es muy cercano al de GPT-4o-mini.
El Laboratorio de IA de Shanghai también afirmó que esta nueva versión del modelo se ha convertido en el primer modelo de diálogo universal en la comunidad de código abierto que admite el uso del navegador y puede admitir saltos de páginas web de más de 20 pasos, lo que permite la extracción de datos en profundidad. información.
Página de experiencia: https://internlm-chat.intern-ai.org.cn.
Destacar:
El modelo Shusheng Puyu 3.0 está entrenado con datos 4T y su rendimiento integral supera al de los modelos de código abierto de la misma escala, lo que ahorra más del 75% de los costos de capacitación.
El modelo obtiene una puntuación líder en múltiples conjuntos de evaluaciones autorizadas y se ha mejorado enormemente la integración de las capacidades de pensamiento y diálogo.
El nuevo modelo admite el uso del navegador y puede realizar una extracción de información en profundidad, convirtiéndose en uno de los aspectos más destacados de la comunidad de código abierto.
En definitiva, la actualización de Shusheng Puyu 3.0 demuestra el importante progreso de China en el campo de los modelos lingüísticos a gran escala. Se espera que sus eficientes métodos de entrenamiento y su potente rendimiento promuevan la aplicación de la tecnología de inteligencia artificial en más campos, y vale la pena examinarlo. con miras a su futuro desarrollo.