OpenAI a annoncé que son nouveau modèle phare GPT-4o mini est officiellement disponible sur Azure AI ! Ce modèle puissant possède d'excellentes capacités de traitement de texte et prendra également en charge le traitement d'images, audio et vidéo à l'avenir, offrant aux utilisateurs une expérience d'IA plus complète. GPT-4o mini a obtenu jusqu'à 82 % au test de compréhension du langage multitâche, ce qui est nettement meilleur que GPT-3.5 Turbo, et est moins cher et extrêmement rentable. Il dispose également d'une fenêtre contextuelle étendue de 128 Ko et de capacités multilingues améliorées, permettant aux utilisateurs de gérer facilement des tâches plus complexes et plus volumineuses.
OpenAI a annoncé aujourd'hui que son nouveau modèle phare, le GPT-4o mini, avait été lancé simultanément sur Azure AI, prenant en charge les capacités de traitement de texte, et qu'il lancerait à l'avenir des fonctions d'image, audio et vidéo.
GPT-4o mini est nettement plus intelligent que GPT-3.5Turbo, avec un score de 82 % sur la mesure de compréhension massive du langage multitâche (MMLU), contre 70 % pour GPT-3.5Turbo, et plus de 60 % moins cher. 1 Ce modèle fournit une fenêtre contextuelle étendue de 128 Ko et intègre les capacités multilingues améliorées de GPT-4o. Azure OpenAI Studio Playground propose un essai gratuit de GPT-4o mini.
Microsoft Azure AI apporte des mises à niveau de sécurité par défaut, de résidence étendue des données et de disponibilité des services à GPT-4o mini. Les clients peuvent s’attendre à bénéficier de performances et de fonctionnalités améliorées sur Azure AI, en particulier pour les scénarios de streaming tels que les assistants, les interpréteurs de code et la récupération.
Azure AI a annoncé des limites mondiales de paiement à l'utilisation et de débit maximal pour GPT-4o mini. Les clients ont désormais la possibilité de payer en fonction des ressources qu'ils consomment, tandis que le trafic est acheminé à l'échelle mondiale pour offrir un débit plus élevé et un contrôle statique sur l'emplacement de stockage des données. L'option de déploiement mondial avec paiement à l'utilisation fournira un débit de 15 millions de jetons par minute (TPM), offrant une disponibilité de 99,99 % pour GPT-4o mini et les mêmes tarifs industriels qu'OpenAI.
GPT-4o mini sera disponible sur Azure AI ce mois-ci et sera disponible dans le service Batch. Batch fournit des tâches à haut débit dans les 24 heures avec une réduction de 50 % en utilisant la capacité hors pointe. Cela n'est possible que si Microsoft s'exécute sur Azure AI, ce qui permet à Microsoft Azure AI de fournir une capacité hors pointe aux clients.
Microsoft Azure AI publiera également ce mois-ci la fonction de réglage fin de GPT-4o mini, permettant aux clients de personnaliser davantage le modèle en fonction de cas d'utilisation et de scénarios spécifiques. Suite à la mise à jour du mois dernier de la facturation des formations basée sur les jetons, Microsoft Azure AI a réduit les frais d'hébergement de 43 %. Combiné à son faible prix d’inférence, cela fait du déploiement précis du service Azure OpenAI l’offre la plus rentable pour les clients ayant des charges de travail de production.
Points saillants du plan :
⭐ GPT-4o mini est lancé sur Azure AI, prend en charge les fonctions de traitement de texte, est extrêmement rapide et possède des fonctions complètes
⭐ Le nouveau modèle est plus intelligent que son prédécesseur, plus de 60 % moins cher, offre une fenêtre contextuelle plus large et des capacités multilingues
⭐ Azure AI propose des options de déploiement mondiales avec paiement à l'utilisation pour GPT-4o mini, offrant un débit élevé et une disponibilité de 99,99 %
En bref, la sortie de GPT-4o mini sur Azure AI marque une nouvelle étape vers une technologie d’IA plus puissante, plus économique et plus facile à utiliser, offrant davantage d’opportunités aux développeurs et aux entreprises. Son modèle de tarification hautes performances, haute disponibilité et flexible deviendra sans aucun doute un moteur puissant pour le développement d’applications d’IA à l’avenir.