Recientemente, una investigación realizada por The Guardian reveló posibles riesgos de seguridad en la herramienta de búsqueda ChatGPT de OpenAI. Las investigaciones han demostrado que ChatGPT es susceptible a códigos maliciosos o instrucciones de manipulación ocultas en páginas web, que dan respuestas inexactas o incluso dañinas, como ser manipulado para dar reseñas demasiado positivas de un producto, incluso si hay reseñas negativas para el producto. La investigación generó preocupaciones sobre la seguridad de los grandes modelos de lenguaje y destacó la importancia crítica de la seguridad en el desarrollo de la tecnología de inteligencia artificial.
Recientemente, una investigación del "Guardian" británico reveló posibles riesgos de seguridad en la herramienta de búsqueda ChatGPT de OpenAI. La investigación encontró que ChatGPT puede ser manipulado o incluso devolver código malicioso al procesar extractos de páginas web que contienen contenido oculto. Este contenido oculto puede incluir instrucciones de terceros diseñadas para interferir con la respuesta de ChatGPT o una gran cantidad de texto oculto que promocione un determinado producto o servicio.
Durante la prueba, a ChatGPT se le proporcionó un enlace a una página de producto de cámara falsa y se le pidió que juzgara si valía la pena comprar la cámara. En una página normal, ChatGPT puede señalar los pros y los contras de un producto de forma equilibrada. Sin embargo, cuando el texto oculto en la página contenía instrucciones solicitando una reseña positiva, las respuestas de ChatGPT se volvieron completamente positivas, a pesar de que había reseñas negativas en la página. Además, incluso sin instrucciones explícitas, un simple texto oculto puede influir en los resultados resumidos de ChatGPT, lo que hace que tienda a dar críticas positivas.
Jacob Larsen, experto en ciberseguridad de CyberCX, advirtió que si el sistema de búsqueda de ChatGPT se lanza completamente en su estado actual, puede enfrentar un "alto riesgo" de que alguien diseñe un sitio web específicamente para engañar a los usuarios. Sin embargo, también señaló que OpenAI tiene un sólido equipo de seguridad de IA y se espera que hayan probado y solucionado rigurosamente estos problemas para cuando la función esté abierta a todos los usuarios.
Los motores de búsqueda como Google han penalizado a los sitios web por utilizar texto oculto, lo que ha provocado que su clasificación baje o incluso se elimine por completo. Karsten Nohl, científico jefe de SR Labs, señaló que el envenenamiento de SEO es un desafío para cualquier motor de búsqueda y ChatGPT no es una excepción. Sin embargo, esto no es un problema con el modelo de lenguaje grande en sí, sino un desafío al que se enfrentan los nuevos participantes en el campo de la búsqueda.
Destacar:
ChatGPT puede ser manipulado mediante contenido oculto y devolver reseñas falsas.
El texto oculto puede afectar la evaluación de ChatGPT, incluso si la página tiene críticas negativas.
OpenAI está solucionando activamente problemas potenciales para mejorar la seguridad de la herramienta de búsqueda.
Aunque ChatGPT enfrenta nuevos desafíos, como el envenenamiento de SEO, esto no significa que la tecnología del modelo de lenguaje a gran escala en sí sea defectuosa. OpenAI es consciente de estos problemas y está tomando medidas activas para resolverlos. En el futuro, a medida que la tecnología continúe desarrollándose y mejorando, se espera que la seguridad de los modelos de lenguaje grandes mejore aún más, brindando a los usuarios servicios más confiables.