Pesquisadores da Universidade de Stanford fizeram um avanço impressionante! Eles usaram dados da Wikipedia para treinar um modelo de linguagem em grande escala chamado WikiChat e resolveram com sucesso o problema da “ilusão” que assola muitos modelos grandes. O WikiChat tem um bom desempenho tanto em precisão factual quanto em outras métricas importantes, superando até mesmo o GPT-4 e liderando outros modelos semelhantes em muitos aspectos. Esta pesquisa estabelece um novo padrão para a confiabilidade e praticidade de grandes modelos de linguagem e anuncia uma nova direção para o desenvolvimento futuro da inteligência artificial.
Pesquisadores da Universidade de Stanford usaram dados da Wikipedia para treinar um grande modelo, chamado WikiChat. Por meio de otimização e melhoria, eles resolveram com sucesso o problema de alucinação do grande modelo e tiveram um bom desempenho em precisão factual e outros indicadores. Seu melhor desempenho excede o GPT-4 e lidera outros modelos em vários aspectos.
O sucesso do WikiChat reside não apenas no seu excelente desempenho, mas, mais importante ainda, no fato de fornecer novas ideias e métodos para resolver o problema da ilusão de grandes modelos. O resultado desta pesquisa promoverá enormemente a aplicação de modelos de linguagem em larga escala em vários campos e estabelecerá uma base sólida para o desenvolvimento de tecnologia de inteligência artificial mais confiável e confiável. Vale a pena esperar mais aplicações e melhorias baseadas nisso no futuro. .