El editor de Downcodes se enteró de que Microsoft lanzó recientemente una función de ajuste fino sin servidor para el modelo de lenguaje pequeño Phi-3, que simplificará enormemente el proceso de optimización del modelo para los desarrolladores. Sin la necesidad de administrar servidores, los desarrolladores pueden ajustar fácilmente el modelo Phi-3 en la plataforma Azure AI, reduciendo el umbral de uso y mejorando la eficiencia. El lanzamiento de esta función demuestra la determinación de Microsoft de continuar innovando en el campo de la IA y también proporciona a los desarrolladores empresariales soluciones de IA más convenientes y eficientes.
Recientemente, Microsoft anunció el lanzamiento de capacidades de ajuste fino sin servidor para su modelo de lenguaje pequeño Phi-3. Esta nueva característica ayudará a los desarrolladores a ajustar y optimizar fácilmente el rendimiento de los modelos Phi-3 sin tener que administrar sus propios servidores.
Microsoft lanzó el servicio en su plataforma de desarrollo de IA Azure, lo que permite a los desarrolladores ajustar modelos en la nube sin considerar la complejidad de la infraestructura subyacente y (inicialmente) de forma gratuita.
El modelo Phi-3 es un modelo de lenguaje pequeño con 3 mil millones de parámetros que está diseñado para desarrolladores empresariales y puede proporcionar un rendimiento eficiente a un costo menor. Aunque su número de parámetros es mucho menor que el de Llama3.1 de Meta (405 mil millones de parámetros), el rendimiento de Phi-3 todavía está cerca del modelo GPT-3.5 de OpenAI en muchos escenarios de aplicación. Microsoft declaró cuando se lanzó por primera vez que el modelo Phi-3 es muy rentable y adecuado para tareas como programación, razonamiento de sentido común y conocimiento general.
Sin embargo, el ajuste del modelo Phi-3 anterior requería que los desarrolladores configuraran un servidor Microsoft Azure o lo ejecutaran en una computadora local, lo cual era complejo y requería cierto hardware. Ahora, a través del ajuste sin servidor, los desarrolladores pueden ajustar y optimizar los modelos directamente en la plataforma Azure AI de Microsoft, lo que no solo simplifica enormemente el proceso operativo, sino que también reduce el umbral de uso.
Microsoft también anunció que los modelos pequeños y medianos de Phi-3 se pueden ajustar a través de puntos finales sin servidor, lo que significa que los desarrolladores pueden ajustar el rendimiento del modelo según sus necesidades para adaptarse a diferentes escenarios de aplicaciones. Por ejemplo, la empresa de software educativo Khan Academy ha comenzado a utilizar modelos Phi-3 perfeccionados para optimizar el rendimiento de su versión para profesores Khanmigo.
Sin embargo, esta nueva característica también hace que la competencia entre Microsoft y OpenAI sea más intensa. OpenAI acaba de lanzar un servicio gratuito de ajuste de modelos mini GPT-4o, y Meta y Mistral también lanzan constantemente nuevos modelos de código abierto. Los principales proveedores de IA compiten activamente por el mercado de desarrolladores empresariales y lanzan productos y servicios más competitivos.
Blog oficial: https://azure.microsoft.com/en-us/blog/annunciando-phi-3-fine-tuning-new-generative-ai-models-and-other-azure-ai-updates-to-empower -organizaciones-para-personalizar-y-escalar-aplicaciones-de-ia/
**Énfasis añadido:**
**Lanzamiento de ajuste fino sin servidor**: Microsoft lanza la funcionalidad de ajuste fino sin servidor, que permite a los desarrolladores ajustar fácilmente el modelo de lenguaje Phi-3 sin tener que administrar la infraestructura.
**Phi-3 rentable**: el modelo Phi-3 proporciona un rendimiento eficiente a bajo costo y es adecuado para diversos escenarios de aplicaciones empresariales.
**Feroz competencia en el mercado**: las capacidades de ajuste de la tecnología sin servidor de Microsoft han intensificado la competencia con OpenAI y otros proveedores de modelos de IA, impulsando el desarrollo de la industria.
Con todo, la función de ajuste fino sin servidor del modelo Microsoft Phi-3 reduce el umbral para las aplicaciones de IA y proporciona a los desarrolladores una solución de ajuste fino del modelo más conveniente y eficiente. Pero también indica que la competencia en el mercado de la IA se volverá más intensa y los fabricantes seguirán lanzando productos y servicios más competitivos para satisfacer la creciente demanda del mercado. El editor de Downcodes seguirá prestando atención a las tendencias en el campo de la IA y le brindará informes más interesantes.