Récemment, les problèmes de performances du grand modèle de langage GPT-4 ont attiré une large attention. Certains internautes ont signalé que le taux d'achèvement de GPT-4 dans les tâches de traitement de code a considérablement diminué, déclenchant des discussions sur sa fiabilité et son efficacité. Bien que le PDG d'OpenAI, Altman, ait promis d'apporter des améliorations au cours de la nouvelle année, les mesures spécifiques et les effets d'amélioration restent à voir, ce qui suscite de l'incertitude chez les utilisateurs. Cet article se concentrera sur l'analyse des raisons du phénomène de « paresse » du GPT-4 et de ses impacts possibles.
Récemment, le phénomène de « paresse » du GPT-4 a de nouveau attiré l'attention. Les internautes ont découvert que lors de la tâche de comparaison de codes, le taux d'achèvement de GPT-4 avait chuté de près d'un quart. Bien qu'Ultraman ait déclaré qu'il y aurait des améliorations au cours de la nouvelle année, les internautes sont toujours troublés par ses stratégies de performances et d'optimisation. Ce phénomène pourrait être atténué au cours de la nouvelle année, mais des mesures d'amélioration n'ont pas encore été déterminées.La dégradation des performances de GPT-4 mérite attention et reflète les défis rencontrés par les grands modèles de langage dans les applications pratiques. À l’avenir, des recherches et des améliorations supplémentaires seront nécessaires pour améliorer la fiabilité et l’efficacité du modèle et répondre aux besoins croissants des utilisateurs. On espère qu'OpenAI pourra proposer dès que possible des plans d'amélioration pratiques et efficaces pour restaurer la confiance des utilisateurs dans GPT-4.