O Google lançou recentemente uma nova estrutura chamada ASPIRE, que visa melhorar a precisão de grandes modelos de linguagem (LLM) em situações de baixa confiança. Esta estrutura alcança a previsão seletiva da autoavaliação, combinando técnicas como ajuste fino de tarefas e amostragem de respostas, resolvendo efetivamente o problema de calibração de confiança do LLM. Este avanço é de grande importância para melhorar a confiabilidade e praticidade do LLM, marcando uma nova etapa no desenvolvimento da tecnologia LLM.
O Google lançou recentemente a estrutura ASPIRE, projetada para ajudar grandes modelos de linguagem a fazer julgamentos corretos sob condições de baixa confiança. A estrutura é baseada na autoavaliação de previsões seletivas, implementada por meio de módulos técnicos, como ajuste fino de tarefas e amostragem de respostas. Dados experimentais mostram que o ASPIRE tem um bom desempenho em vários conjuntos de dados, preenche a lacuna na calibração de confiança de grandes modelos de linguagem e melhora a estabilidade e a precisão do modelo. O lançamento do ASPIRE proporcionará melhor desempenho e serviços mais confiáveis para grandes modelos de linguagem em diferentes áreas.
A aplicação bem-sucedida da estrutura ASPIRE indica que grandes modelos de linguagem serão mais confiáveis e precisos em aplicações práticas, proporcionando novas direções e possibilidades para o desenvolvimento futuro da tecnologia de inteligência artificial. Seu avanço na calibração de confiança promoverá, sem dúvida, a aplicação e popularização do LLM em mais campos.