¡Los investigadores de la Universidad de Stanford han logrado un avance impresionante! Utilizaron datos de Wikipedia para entrenar un modelo de lenguaje a gran escala llamado WikiChat y resolvieron con éxito el problema de la "ilusión" que afecta a muchos modelos grandes. WikiChat tiene un buen desempeño tanto en precisión fáctica como en otras métricas clave, incluso superando a GPT-4 y liderando otros modelos similares en muchos aspectos. Esta investigación establece un nuevo punto de referencia para la confiabilidad y practicidad de grandes modelos de lenguaje y presagia una nueva dirección para el desarrollo futuro de la inteligencia artificial.
Los investigadores de la Universidad de Stanford utilizaron datos de Wikipedia para entrenar un modelo grande, llamado WikiChat. Mediante optimización y mejora, resolvieron con éxito el problema de las alucinaciones del modelo grande y obtuvieron buenos resultados en precisión fáctica y otros indicadores. Su mejor rendimiento supera al GPT-4 y lidera a otros modelos en múltiples aspectos.
El éxito de WikiChat no sólo reside en su excelente rendimiento, sino más importante aún en que proporciona nuevas ideas y métodos para resolver el problema de la ilusión de modelos grandes. El resultado de esta investigación promoverá en gran medida la aplicación de modelos de lenguaje a gran escala en diversos campos y sentará una base sólida para el desarrollo de tecnología de inteligencia artificial más confiable y creíble. Vale la pena esperar más aplicaciones y mejoras basadas en esto en el futuro. .