Un nuevo estudio del Tow Center for Digital Journalism de la Universidad de Columbia revela serios problemas con las citas de fuentes de noticias por parte de ChatGPT. Los investigadores probaron 200 citas de noticias de 20 editores y descubrieron que hasta el 76,5% de las citas de ChatGPT contenían errores totales o parciales, y rara vez reconocían información faltante. Este estudio ha suscitado preocupaciones sobre la confiabilidad de los servicios de búsqueda de inteligencia artificial y ha planteado dudas sobre la seguridad de las aplicaciones de inteligencia artificial en el campo de la difusión de noticias. Sus conclusiones tienen importantes implicaciones de advertencia tanto para los medios de comunicación como para las empresas de inteligencia artificial.
Una nueva investigación del Tow Center for Digital Journalism de la Universidad de Columbia hace sonar la alarma para los servicios de búsqueda de inteligencia artificial. Las investigaciones muestran que ChatGPT tiene serios problemas de precisión al citar fuentes de noticias, incluso para los editores que trabajan directamente con OpenAI. El equipo de investigación realizó pruebas exhaustivas en 200 citas de noticias de 20 editores diferentes, y los resultados fueron sorprendentes: en 153 de estos casos, ChatGPT tenía información de origen incorrecta o parcialmente incorrecta. Aún más preocupante es que el sistema rara vez admitió de manera proactiva que faltaba información, admitiendo en sólo siete intentos que no pudo encontrar la fuente.
Los investigadores señalaron que para mantener la experiencia del usuario, ChatGPT prefiere inventar respuestas que admitir una falta de información. Lo que es más grave es que el sistema presenta estas fuentes falsas con una confianza inquietante, sin mostrar ninguna incertidumbre. Incluso editoriales conocidas como el New York Post y The Atlantic, que tienen asociaciones directas con OpenAI, no son inmunes a este problema. En algunos casos, ChatGPT incluso enlazaba a sitios web que copiaban artículos completos sin autorización, en lugar de la fuente original.
El editor en jefe de MIT Technology Review, Matt Honan, comentó al respecto: "Como editores, esta definitivamente no es una situación que queramos ver, y los remedios disponibles en este momento son extremadamente limitados".
OpenAI ha sido relativamente cauteloso en su respuesta a estos preocupantes hallazgos. La compañía enfatizó que ChatGPT atiende a 250 millones de usuarios cada semana y dijo que está trabajando con socios para mejorar la precisión de las citas.
La conclusión final del estudio es clara: en este momento, los editores no tienen garantía de que ChatGPT Search muestre con precisión su contenido, independientemente de si tienen una asociación con OpenAI. Sin duda, este descubrimiento promoverá una mayor discusión y mejora de la confiabilidad de la información de la inteligencia artificial.
Los hallazgos son aleccionadores y resaltan la importancia del pensamiento crítico y la verificación de hechos cuando se depende de la tecnología de inteligencia artificial para obtener información. En el futuro, será necesario reforzar aún más la supervisión y mejora de los modelos de inteligencia artificial para garantizar que la información que proporcionan sea precisa y fiable y evitar engañar al público.