La confiabilidad y seguridad de los modelos de lenguajes grandes (LLM) han recibido cada vez más atención. Investigaciones recientes han revelado posibles fallas en el LLM, como la duplicación de información dañina y contradicciones lógicas. Estos problemas plantean serios desafíos para la aplicación y el desarrollo de LLM y requieren más investigación y mejora. Este artículo se centrará en un estudio sobre ChatGPT realizado por la Universidad de Waterloo en Canadá, que encontró que ChatGPT ha repetido información errónea dañina y autocontradicción al responder preguntas, y proporciona un análisis en profundidad de sus causas y efectos.
Investigaciones recientes han descubierto que los grandes modelos de lenguaje, como ChatGPT de OpenAI, a menudo sufren de información errónea y dañina repetida. Investigadores de la Universidad de Waterloo en Canadá realizaron una prueba sistemática de las capacidades de comprensión de ChatGPT y descubrieron que GPT-3 se contradecía en sus respuestas y repetía información errónea dañina. Utilizaron diferentes plantillas de encuesta y pidieron más de 1200 afirmaciones diferentes para descubrir el problema.Los resultados de este estudio resaltan los desafíos que enfrentan los grandes modelos de lenguaje en aplicaciones prácticas y también brindan una referencia importante para mejorar la confiabilidad y seguridad de LLM en el futuro. La investigación adicional debería centrarse en cómo reducir la información dañina y los errores lógicos en los resultados del LLM para garantizar su aplicación segura y confiable en diversos campos. Se espera que investigaciones futuras puedan encontrar soluciones más efectivas y mejorar la calidad y seguridad de LLM.