Investigadores de la Universidad de Stanford han desarrollado un marco de "atribución unificada" destinado a resolver los problemas de autenticidad y fuente de datos de los resultados de salida del modelo de lenguaje grande (LLM). Este marco combina los dos métodos de atribución colaborativa y atribución de contribución para proporcionar una herramienta más completa para evaluar la confiabilidad de los resultados de LLM, especialmente adecuada para campos que requieren una precisión de información extremadamente alta. Esta investigación es de gran importancia para mejorar la credibilidad y el alcance de la aplicación de LLM y proporciona a los desarrolladores un método de verificación de modelos más completo.
Investigadores de la Universidad de Stanford propusieron un marco de "atribución unificada" que integra la atribución colaborativa y la atribución de contribución para verificar la autenticidad de los resultados de modelos grandes y el impacto de los datos de entrenamiento. Este marco es adecuado para industrias que requieren una precisión de contenido extremadamente alta y proporciona a los desarrolladores una herramienta de verificación de modelos grandes más completa.
El surgimiento del marco de "atribución unificada" marca un paso importante en la evaluación de la credibilidad de grandes modelos lingüísticos y proporciona una nueva dirección para la confiabilidad y seguridad de los futuros modelos de inteligencia artificial. Ayudará a mejorar la aplicación de LLM en diversos campos y promoverá su desarrollo saludable.