Recentemente, os problemas de desempenho do modelo de linguagem grande GPT-4 atraíram ampla atenção. Alguns internautas relataram que a taxa de conclusão do GPT-4 em tarefas de processamento de código caiu significativamente, desencadeando discussões sobre sua confiabilidade e eficiência. Embora Altman, CEO da OpenAI, tenha prometido fazer melhorias no novo ano, as medidas específicas e os efeitos das melhorias ainda não foram vistos, o que traz incerteza aos usuários. Este artigo se concentrará em analisar as razões do fenômeno da “preguiça” do GPT-4 e seus possíveis impactos.
Recentemente, o fenômeno da "preguiça" do GPT-4 atraiu mais uma vez a atenção. Os internautas descobriram que na tarefa de comparação de código, a taxa de conclusão do GPT-4 caiu quase um quarto. Embora Ultraman tenha dito que haverá melhorias no novo ano, os internautas ainda estão preocupados com seu desempenho e estratégias de otimização. Este fenómeno poderá ser atenuado no Ano Novo, mas ainda não foram determinadas medidas de melhoria.A degradação do desempenho do GPT-4 merece atenção e reflete os desafios enfrentados por grandes modelos de linguagem em aplicações práticas. No futuro, serão necessárias mais pesquisas e melhorias para melhorar a confiabilidade e a eficiência do modelo e atender às necessidades crescentes dos usuários. Espera-se que a OpenAI possa apresentar planos de melhoria práticos e eficazes o mais rápido possível para restaurar a confiança dos usuários no GPT-4.