L'éditeur de Downcodes a appris que la plate-forme Alibaba Cloud Bailian a récemment lancé le modèle de texte long Qwen2,5-Turbo million. Ce modèle a été développé par l'équipe Tongyi Qianwen et a la capacité de traiter des textes ultra-longs allant jusqu'à 1 million de jetons. Dans le traitement de textes longs, des avancées significatives ont été réalisées dans ce domaine. Cette avancée apportera aux utilisateurs des capacités de traitement de texte plus puissantes et repoussera les limites des applications d’IA. Le modèle Qwen2.5-Turbo a surpassé GPT-4 dans plusieurs évaluations de textes longs, démontrant ses avantages en termes de précision et d'efficacité, et fournissant des services plus puissants à moindre coût.
Cette nouvelle version du modèle a atteint une précision de 100 % dans les tâches de récupération de texte long et a obtenu un score de 93,1 sur l'ensemble d'évaluation de texte long RULER, surpassant GPT-4. Dans les tâches de texte longues proches des scènes réelles telles que LV-Eval et LongBench-Chat, Qwen2.5-Turbo surpasse GPT-4o-mini dans la plupart des dimensions. Dans le test de référence en texte court, Qwen2.5-Turbo a également très bien fonctionné, surpassant largement le modèle open source précédent avec une longueur de contexte de 1 million de jetons.
Le modèle Qwen2.5-Turbo propose un large éventail de scénarios d'application, notamment une compréhension approfondie de romans, des assistants de code à grande échelle, la lecture de plusieurs articles, etc. Il peut traiter 10 romans, 150 heures de discours ou 30 000 lignes. de code à la fois. En termes de vitesse de raisonnement, l'équipe de Tongyi Qianwen a compressé la quantité de calcul d'environ 12,5 fois grâce au mécanisme d'attention clairsemée et a réduit le temps de retour du premier mot du traitement du contexte de 1 million de jetons de 4,9 minutes à 68 secondes, atteignant une augmentation de vitesse de 4,3 fois.
La plate-forme Alibaba Cloud Bailian offre à tous les utilisateurs la possibilité d'appeler directement l'API Qwen2.5-Turbo et offre un cadeau à durée limitée de 10 millions de jetons. Le coût de l’utilisation ultérieure d’un million de jetons n’est que de 0,3 yuan.
À l'heure actuelle, la plate-forme Alibaba Cloud Bailian a lancé plus de 200 grands modèles open source et fermés grand public nationaux et étrangers, notamment Qwen, Llama et ChatGLM, permettant aux utilisateurs d'appeler, de se former et d'affiner ou de créer directement des applications RAG.
L'émergence du modèle Qwen2.5-Turbo marque un progrès significatif dans la technologie de traitement de textes longs. Ses larges perspectives d'application et ses performances efficaces apporteront davantage de possibilités à tous les horizons. La stratégie ouverte de la plateforme Alibaba Cloud Bailian offre également aux développeurs un accès pratique et favorise le développement et l'application de la technologie de l'IA. L'éditeur de Downcodes attend avec impatience des applications plus innovantes basées sur ce modèle !