El Instituto de Innovación Tecnológica de los Emiratos (TII) ha lanzado una nueva generación de la serie Falcon3 de modelos de lenguaje pequeño de código abierto, que incluye cuatro modelos de diferentes tamaños y ofrece dos variantes: versión básica y versión de comando. Esta serie de modelos tiene un buen desempeño en las clasificaciones de Hugging Face, superando a los modelos de código abierto del mismo tamaño e incluso superando a competidores como Google, Meta y Alibaba en múltiples pruebas comparativas. La serie Falcon3 es eficiente y de bajo costo, y es particularmente adecuada para dispositivos y escenarios de aplicaciones con recursos informáticos limitados, como servicio al cliente, atención médica e Internet de las cosas. Sus datos de entrenamiento son de gran escala y utilizan arquitectura y mecanismos avanzados para minimizar el uso de memoria y mejorar la eficiencia de la inferencia. TII también proporciona el entorno de prueba Falcon Playground para facilitar que los desarrolladores e investigadores lo prueben.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
El rendimiento del Falcon 3 ha encabezado la clasificación de Hugging Face, superando a los modelos de código abierto del mismo tamaño, como Meta's Llama y Qwen-2.5. En particular, las versiones 7B y 10B han demostrado ventajas técnicas líderes en velocidad de razonamiento, comprensión del lenguaje, ejecución de instrucciones y tareas de código y matemáticas, e incluso han superado a competidores como Google, Meta y Alibaba en múltiples pruebas comparativas.
En comparación con los modelos tradicionales de lenguaje grande (LLM), los modelos SLM tienen las ventajas de alta eficiencia y bajo costo debido a su menor número de parámetros y diseño más simple, y son especialmente adecuados para aplicaciones en servicio al cliente, atención médica, Internet de las cosas y otros campos. Según la firma de investigación de mercado Values Reports, se espera que el mercado SLM crezca a una tasa anual promedio del 18% durante los próximos cinco años.
La escala de datos de entrenamiento de la serie Falcon3 alcanza los 14 billones de tokens, más del doble que su predecesor Falcon2. Esta serie adopta una arquitectura de solo decodificador y un mecanismo de atención de consultas agrupadas para minimizar el uso de memoria y al mismo tiempo mejorar la eficiencia de la inferencia. Falcon3 admite cuatro idiomas, incluidos inglés, francés, español y portugués, y está equipado con una ventana contextual de 32K, que puede manejar texto de entrada largo y satisfacer las necesidades de diversas industrias.
TII dijo que el modelo base de Falcon3 es adecuado para tareas de propósito general, mientras que la versión de comando está optimizada para tareas conversacionales como servicio al cliente y asistentes virtuales. El lanzamiento de esta serie promoverá aún más el desarrollo de aplicaciones sensibles a la privacidad y de computación de punta, respaldando escenarios como recomendaciones personalizadas, análisis de datos, diagnóstico médico y optimización de la cadena de suministro.
Todos los modelos Falcon3 se lanzan bajo la licencia TII Falcon 2.0, una licencia permisiva basada en Apache 2.0 que admite el desarrollo y la implementación responsable de la IA. Para ayudar a los desarrolladores e investigadores a comenzar, TII también lanzó el entorno de prueba Falcon Playground, donde los usuarios pueden probar estos modelos antes de integrarlos.
El lanzamiento de código abierto de la serie Falcon3 reduce el umbral para la aplicación de la tecnología de IA, proporciona a los desarrolladores e investigadores herramientas poderosas, acelera la aplicación y la innovación de la tecnología de IA en diversos campos y presagia la tendencia de una mayor popularización y democratización de la tecnología de IA.