O rápido desenvolvimento de grandes modelos de linguagem (LLM) trouxe conveniência à aquisição de informações, mas também trouxe novos desafios. Pesquisas recentes mostram que o LLM corre o risco de espalhar informações falsas ao lidar com fatos, teorias da conspiração e temas polêmicos. Este artigo concentrar-se-á na análise dos riscos potenciais de tais modelos e nos seus possíveis impactos negativos, e explorará direções para melhorias futuras.
As pesquisas mais recentes revelam que grandes modelos de linguagem têm problemas para espalhar informações falsas, especialmente ao responder declarações sobre fatos, conspirações, controvérsias, etc. A pesquisa destacou os frequentes erros, contradições e duplicação de informações prejudiciais do ChatGPT. Apontou-se que o contexto e os métodos de questionamento podem afetar o grau de “adesão” do modelo a informações falsas. Isto levanta preocupações sobre os perigos potenciais destes modelos, uma vez que podem aprender informações incorretas durante o processo de aprendizagem.Os avanços na tecnologia de modelos linguísticos de grande dimensão precisam de ser acompanhados de avaliações de riscos e medidas de mitigação. A investigação futura deve centrar-se em como melhorar a capacidade do modelo para identificar informações e reduzir a sua probabilidade de espalhar informações falsas para garantir a sua aplicação segura e fiável em vários campos. Só desta forma as vantagens do LLM podem ser verdadeiramente utilizadas e os seus potenciais danos evitados.