OpenAI est sur le point de lancer une mise à niveau majeure de ChatGPT – le service ChatGPT Pro au prix de 200 $ US/mois, et prévoit de lancer un nouveau modèle « fraise » dans les deux prochaines semaines. Le cœur de ce modèle réside dans sa méthode de raisonnement unique, qui effectuera 10 à 20 secondes de réflexion et de récupération d'informations avant de répondre à une question afin d'améliorer l'efficacité de l'utilisation de la puissance de calcul de l'IA et de générer un contenu plus précis. Bien qu'il ne prenne actuellement en charge que le traitement de texte, ses tentatives innovantes visant à imiter les processus de pensée humaine méritent l'attention.
OpenAI est sur le point d'apporter une mise à niveau majeure à ChatGPT. Il est rapporté que ChatGPT Pro, au prix de 200 $ US/mois, a été officiellement lancé. Bien qu'aucune nouvelle fonctionnalité ou modèle n'ait encore été introduit, les utilisateurs peuvent s'attendre à découvrir le nouveau modèle fraise dans les deux prochaines semaines. Ce modèle d'IA de haut niveau fournira non seulement un support technique puissant pour ChatGPT, mais attirera également l'attention de l'industrie grâce à sa méthode de raisonnement unique.
La principale caractéristique du modèle fraise est sa capacité à imiter le processus de pensée humaine. Il peut passer 10 à 20 secondes à réfléchir et à récupérer des informations avant de donner une réponse. Cette méthode de traitement innovante est conçue pour améliorer l'efficacité de l'utilisation de la puissance de calcul de l'IA et ainsi générer un contenu plus précis.
Cependant, il convient de noter que le modèle fraise ne prend en charge le traitement de texte qu'au stade initial et ne dispose pas encore des capacités de traitement d'image et audio de GPT-4.
En fait, cette technologie d’allongement du temps d’inférence et d’ajustement adaptatif n’est pas la première du genre dans OpenAI. Google DeepMind a déjà mené des recherches approfondies dans ce domaine et publié des articles pertinents. Les chercheurs ont découvert que grâce à la technologie informatique au moment des tests, les performances des grands modèles de langage peuvent être considérablement améliorées, dépassant ainsi les limites des modèles actuels en matière d'ensembles de données de formation et de ressources informatiques d'inférence.
Il existe deux principaux types de stratégies d'optimisation pour le modèle fraise. Le premier type est basé sur un modèle de récompense de vérification intensif et orienté processus, qui nécessite que le modèle non seulement produise des résultats, mais également qu'il fournisse un processus de raisonnement logique, particulièrement adapté aux tâches de raisonnement mathématique et logique complexes.
La deuxième stratégie consiste à ajuster dynamiquement les réponses ultérieures en fonction du contenu généré précédemment et à optimiser en permanence la qualité du résultat à travers plusieurs cycles d'itération. La stratégie d'optimisation des calculs proposée par les chercheurs vise à sélectionner la méthode de calcul du temps de test la plus appropriée en fonction de la situation spécifique, ce qui améliore considérablement l'efficacité du calcul.
Cependant, le modèle fraise se heurte également à certains défis. Bien qu’ils soient excellents pour réduire les erreurs et les hallucinations, les temps de réponse de 10 à 20 secondes peuvent avoir un impact sur l’expérience utilisateur. Certains utilisateurs d'essai ont indiqué que ces réponses légèrement plus précises ne semblent pas suffire à compenser les délais d'attente plus longs.
En outre, étant donné que les capacités avancées peuvent entraîner une consommation plus élevée de ressources informatiques, les coûts d'utilisation peuvent également augmenter. Afin d'équilibrer l'expérience utilisateur et la consommation des ressources, OpenAI peut fixer une limite supérieure à la fréquence d'envoi des messages et envisager de lancer des packages plus chers pour offrir des temps de réponse plus rapides.
Dans l'ensemble, le modèle « Strawberry » représente une tentative utile d'OpenAI pour améliorer la précision et les capacités de raisonnement des grands modèles de langage, mais son temps de réponse de 10 à 20 secondes et ses problèmes de coûts potentiels nécessitent encore une observation et une amélioration supplémentaires. Son succès futur dépend de la capacité d’OpenAI à équilibrer efficacement la relation entre précision, rapidité et coût.