Récemment, l'équipe de recherche de Google a annoncé un résultat de recherche alarmant : elle a réussi à attaquer le modèle GPT-3.5-turbo d'OpenAI pour un coût aussi bas que 150 yuans. Cette méthode d'attaque est simple et efficace, nécessitant moins de 2 000 requêtes API pour obtenir les informations clés du modèle. Cette découverte souligne que même les grands modèles de langage peuvent être confrontés à de graves menaces de sécurité et nous incite également à réexaminer la nécessité et l’urgence de la protection de la sécurité de l’IA. Les résultats de la recherche montrent que les grands modèles de langage ne sont pas indestructibles et que les mécanismes de sécurité doivent être continuellement améliorés pour faire face aux risques potentiels.
Les dernières recherches de Google révèlent une méthode efficace pour attaquer le modèle OpenAI GPT-3.5-turbo, avec un coût aussi bas que 150 yuans. L’attaque est simple et efficace, et des informations clés peuvent être obtenues avec moins de 2 000 requêtes API. Cette expérience rappelle que même les grands modèles de langage peuvent être confrontés à des menaces de sécurité, et OpenAI a pris des mesures pour modifier l'API du modèle afin d'empêcher de nouvelles attaques.
Les recherches de Google ont tiré la sonnette d'alarme dans le domaine de la sécurité de l'IA et ont également encouragé les efforts d'entreprises telles qu'OpenAI pour renforcer la sécurité des modèles. À l’avenir, la recherche et le développement de mesures de sécurité et de mécanismes de défense plus puissants feront partie intégrante du développement de l’IA afin de garantir une application sûre et fiable de la technologie de l’IA.