A confiabilidade e a segurança dos grandes modelos de linguagem (LLMs) têm recebido atenção crescente. Pesquisas recentes revelaram falhas potenciais no LLM, como duplicação de informações prejudiciais e contradições lógicas. Estes problemas representam sérios desafios à aplicação e desenvolvimento do LLM e requerem mais investigação e melhoria. Este artigo se concentrará em um estudo sobre ChatGPT conduzido pela Universidade de Waterloo, no Canadá, que descobriu que ChatGPT repetiu desinformação prejudicial e autocontradição ao responder perguntas, e fornece uma análise aprofundada de suas causas e efeitos.
Uma pesquisa recente descobriu que grandes modelos de linguagem, como o ChatGPT da OpenAI, muitas vezes sofrem com repetidas informações incorretas prejudiciais. Pesquisadores da Universidade de Waterloo, no Canadá, conduziram um teste sistemático das capacidades de compreensão do ChatGPT e descobriram que o GPT-3 se contradizia em suas respostas e repetia informações incorretas prejudiciais. Eles usaram diferentes modelos de pesquisa e pediram mais de 1.200 afirmações diferentes para descobrir o problema.Os resultados deste estudo destacam os desafios enfrentados por grandes modelos de linguagem em aplicações práticas e também fornecem uma referência importante para melhorar a confiabilidade e segurança do LLM no futuro. Mais pesquisas devem se concentrar em como reduzir informações prejudiciais e erros lógicos na produção do LLM para garantir sua aplicação segura e confiável em vários campos. Espera-se que pesquisas futuras possam encontrar soluções mais eficazes e melhorar a qualidade e segurança do LLM.