Récemment, une découverte révolutionnaire dans le domaine de la recherche sur l'IA a attiré une large attention. Grâce à une technique innovante appelée "attaque de poésie", les chercheurs ont révélé avec succès la source de données de formation pour le modèle ChatGpt d'Openai. Cette découverte expose non seulement les vulnérabilités de sécurité potentielles dans les modèles actuels de grands langues, mais sonne également l'alarme du mécanisme de protection de la confidentialité des systèmes d'IA.
La stratégie principale de «l'attaque poétique» est d'induire le modèle Chatgpt pour divulguer des informations sensibles contenues dans ses données de formation en répétant des mots ou des phrases spécifiques. Ce qui est choquant, c'est que cette méthode d'attaque apparemment simple peut extraire avec succès des données de confidentialité personnelle, y compris les numéros de téléphone, les adresses e-mail, etc. La découverte de cette vulnérabilité met en évidence la vulnérabilité des systèmes d'IA actuels dans la sécurité des données.
L'équipe de recherche a officiellement informé OpenAI de cette vulnérabilité de sécurité le 30 août, mais jusqu'à présent, Openai n'a pas encore répondu à cela. Cet incident a de nouveau déclenché la réflexion approfondie de l'industrie sur la transparence et la sécurité des systèmes d'IA, et a également incité les institutions pertinentes à réexaminer le processus de développement et de déploiement des modèles d'IA.
En plus des problèmes de sécurité, cette étude met également l'accent sur les problèmes de coût environnemental dans le développement de la technologie de l'IA. Les chercheurs soulignent que l'énergie consommée par les modèles d'IA génératives lors de la création de texte et d'images est incroyable, et ce modèle de consommation à haute énergie est contraire au concept de développement durable. Par conséquent, bien que la promotion de l'avancement de la technologie de l'IA, comment réaliser un moyen plus respectueux de l'environnement d'utiliser l'IA est devenue un problème important qui doit être résolu d'urgence.
Cette étude révèle non seulement les défauts techniques des systèmes d'IA actuels, mais souligne également la direction du développement futur de l'industrie de l'IA. Cela nous rappelle que, tout en poursuivant des percées dans la technologie de l'IA, nous devons soigneusement traiter des questions clés telles que la protection de la vie privée et la consommation d'énergie. Ce n'est qu'en équilibrant la relation entre l'innovation technologique, la vie privée et la sécurité et la protection de l'environnement que nous pouvons nous assurer que la technologie de l'IA profite vraiment à la société humaine.