Recientemente, el equipo de investigación de Google anunció un resultado de investigación alarmante: atacaron con éxito el modelo GPT-3.5-turbo de OpenAI a un costo tan bajo como 150 yuanes. Este método de ataque es simple y efectivo y requiere menos de 2000 consultas API para obtener información clave del modelo. Este descubrimiento destaca que incluso los modelos de lenguaje más grandes pueden enfrentar serias amenazas a la seguridad y también nos impulsa a reexaminar la necesidad y urgencia de la protección de la seguridad de la IA. Los resultados de la investigación muestran que los grandes modelos de lenguaje no son indestructibles y que los mecanismos de seguridad deben mejorarse continuamente para hacer frente a los riesgos potenciales.
La última investigación de Google revela un método exitoso para atacar el modelo OpenAI GPT-3.5-turbo, con un costo tan bajo como 150 yuanes. El ataque es simple y efectivo, y se puede obtener información clave con menos de 2000 consultas API. Este experimento recuerda que incluso los modelos de lenguaje grandes pueden enfrentar amenazas a la seguridad, y OpenAI ha tomado medidas para modificar la API del modelo para evitar más ataques.
La investigación de Google ha hecho sonar la alarma en el campo de la seguridad de la IA y también ha impulsado los esfuerzos de empresas como OpenAI para fortalecer la seguridad del modelo. En el futuro, la investigación y el desarrollo de medidas de seguridad y mecanismos de defensa más potentes se convertirán en una parte integral del desarrollo de la IA para garantizar la aplicación segura y confiable de la tecnología de IA.