Ces dernières années, les assistants de programmation IA sont rapidement devenus populaires en raison de leur potentiel d’amélioration de l’efficacité et sont devenus un outil puissant pour de nombreux programmeurs. Cependant, une étude récente de l’Université de Stanford a révélé les risques potentiels des assistants de programmation IA. Cette recherche a soulevé des inquiétudes quant à la sécurité de la programmation assistée par IA et nous a rappelé que nous ne pouvons pas nous fier aveuglément aux outils IA. L'éditeur de Downcodes vous donnera une compréhension approfondie des résultats et des conclusions de cette étude.
Récemment, les assistants de programmation IA sont devenus très populaires, prétendant pouvoir aider les programmeurs à écrire du code et à améliorer leur efficacité. De nombreux programmeurs le considèrent même comme un « sauveur » et ont hâte d'écrire du code avec lui tous les jours. Cependant, une étude de l'Université de Stanford a jeté de l'eau froide sur ces « fans enthousiastes » : les assistants de programmation d'IA pourraient être un « cauchemar de sécurité » !
Des chercheurs de l'Université de Stanford ont demandé à 47 programmeurs d'effectuer cinq tâches de programmation liées à la sécurité, couvrant trois langages : Python, JavaScript et C. Il a été constaté que les programmeurs qui utilisaient des assistants IA pour écrire du code écrivaient du code beaucoup moins sécurisé !
Ce n’est pas alarmiste. L'assistant de programmation IA est comme un "stagiaire peu fiable". Bien qu'il puisse écrire du code apparemment correct, il ne connaît rien aux problèmes de sécurité. Par exemple, dans la tâche de cryptage et de décryptage, bien que le code généré par l'assistant IA puisse crypter correctement les informations, il ne renvoie pas l'étiquette d'authentification nécessaire. Cela équivaut à installer un verrou sur le coffre-fort mais à ne pas donner la clé. , ce qui réduit considérablement la sécurité.
Ce qui est encore pire, c'est que les programmeurs qui utilisent des assistants IA sont plus susceptibles de penser que le code qu'ils écrivent est très sûr. C'est comme prendre « l'extase » et fermer les yeux sur les failles de sécurité du code. Ce n’est pas une bonne chose et un excès de confiance entraîne souvent des problèmes de sécurité plus graves.
Les chercheurs ont également découvert que les conseils que les programmeurs donnent aux assistants IA affecteront directement la sécurité du code. Si le programmeur peut décrire clairement la tâche et fournir certaines fonctions auxiliaires, le code écrit par l'assistant IA sera plus sûr. Mais si les programmeurs s'appuient aveuglément sur les assistants IA, ou même utilisent directement le code généré par les assistants IA, cela équivaut à copier et coller des « vulnérabilités de sécurité » dans leur propre code, et les résultats peuvent être imaginés.
Alors, l’assistant de programmation IA peut-il être utilisé ?
La réponse est : il peut être utilisé, mais soyez prudent ! Les programmeurs ne peuvent pas le considérer comme une « panacée », et encore moins lui faire aveuglément confiance. Lorsqu’ils utilisent des assistants IA, les programmeurs doivent toujours être vigilants et vérifier soigneusement le code pour éviter les failles de sécurité.
Adresse papier : https://arxiv.org/pdf/2211.03622
Dans l’ensemble, l’assistant de programmation IA est une arme à double tranchant. Il peut améliorer l’efficacité, mais il peut également entraîner des risques pour la sécurité. Les programmeurs doivent l'utiliser avec prudence, rester vigilants à tout moment et éviter une dépendance excessive afin de maximiser ses avantages et d'éviter ses risques. L'éditeur de Downcodes vous rappelle que le codage sécurisé passe toujours en premier !