Google lanzó recientemente un nuevo marco llamado ASPIRE, cuyo objetivo es mejorar la precisión de los modelos de lenguaje grandes (LLM) en situaciones de baja confianza. Este marco logra una predicción selectiva de la autoevaluación combinando técnicas como el ajuste fino de tareas y el muestreo de respuestas, resolviendo eficazmente el problema de la calibración de confianza de LLM. Este avance es de gran importancia para mejorar la confiabilidad y practicidad de LLM, marcando una nueva etapa en el desarrollo de la tecnología LLM.
Google lanzó recientemente el marco ASPIRE, que está diseñado para ayudar a modelos de lenguaje grandes a realizar juicios correctos en condiciones de baja confianza. El marco se basa en la autoevaluación de predicciones selectivas, implementadas a través de módulos técnicos como el ajuste de tareas y el muestreo de respuestas. Los datos experimentales muestran que ASPIRE funciona bien en varios conjuntos de datos, llena el vacío en la calibración de confianza de modelos de lenguaje grandes y mejora la estabilidad y precisión del modelo. El lanzamiento de ASPIRE proporcionará un mejor rendimiento y servicios más confiables para modelos de lenguajes grandes en diferentes campos.
La aplicación exitosa del marco ASPIRE indica que los modelos de lenguaje grandes serán más confiables y precisos en aplicaciones prácticas, proporcionando nuevas direcciones y posibilidades para el desarrollo futuro de la tecnología de inteligencia artificial. Su avance en la calibración de la confianza sin duda promoverá la aplicación y popularización del LLM en más campos.