Pesquisadores da Universidade de Stanford desenvolveram uma estrutura de "atribuição unificada" destinada a resolver os problemas de autenticidade e fonte de dados dos resultados de saída do modelo de linguagem grande (LLM). Esta estrutura combina os dois métodos de atribuição colaborativa e atribuição de contribuição para fornecer uma ferramenta mais abrangente para avaliar a confiabilidade dos resultados do LLM, especialmente adequada para campos que exigem precisão de informações extremamente alta. Esta pesquisa é de grande importância para melhorar a credibilidade e o escopo de aplicação do LLM e fornece aos desenvolvedores um método de verificação de modelo mais completo.
Pesquisadores da Universidade de Stanford propuseram uma estrutura de “atribuição unificada” que integra atribuição colaborativa e atribuição de contribuição para verificar a autenticidade de resultados de grandes modelos e o impacto dos dados de treinamento. Essa estrutura é adequada para setores que exigem precisão de conteúdo extremamente alta e fornece aos desenvolvedores uma ferramenta de verificação de modelos grandes mais abrangente.
O surgimento da estrutura de “atribuição unificada” marca um passo importante na avaliação da credibilidade de grandes modelos linguísticos e fornece uma nova direção para a confiabilidade e segurança de futuros modelos de inteligência artificial. Ajudará a melhorar a aplicação do LLM em vários campos e a promover o seu desenvolvimento saudável.