Récemment, les assistants en programmation de l'IA ont été favorisés par les programmeurs, mais leur sécurité a causé des préoccupations. Une étude de l'Université de Stanford montre que l'utilisation des assistants de programmation d'IA peut réduire la sécurité du code et même conduire à une erreur de jugement des programmeurs de la sécurité du code. L'étude a testé 47 programmeurs et les résultats ont montré que les programmeurs utilisant des assistants d'IA ont écrit beaucoup moins de sécurité que les programmeurs qui n'utilisaient pas d'assistants d'IA.
Récemment, les assistants de programmation en IA sont devenus très populaires, prétendant pouvoir aider les programmeurs à écrire du code et à améliorer l'efficacité. De nombreux programmeurs le considèrent même comme un "sauveur" et souhaitent qu'ils puissent le tenir et écrire du code tous les jours. Cependant, une étude à l'Université de Stanford a versé de l'eau froide sur ces "fans de fanasy": les assistants de programmation AI peuvent être un "cauchemar de sécurité"!
Les chercheurs de l'Université de Stanford ont trouvé 47 programmeurs pour effectuer cinq tâches de programmation liées à la sécurité, couvrant trois langues: Python, JavaScript et C. Il s'est avéré que les programmeurs qui ont écrit du code avec des assistants de l'IA avaient une sécurité de code nettement pire!
Ce n'est pas alarmiste. L'assistant de programmation AI est comme un "stagiaire peu fiable". Bien qu'il puisse écrire un code apparemment correct, il ne sait rien des problèmes de sécurité. Par exemple, dans la tâche de chiffrement et de décryptage, bien que le code généré par l'assistant AI puisse crypter correctement les informations, il ne renvoie pas la balise d'authentification nécessaire. qui réduit considérablement la sécurité.
Ce qui est encore plus grave, c'est que les programmeurs qui utilisent des assistants d'IA sont plus susceptibles de penser que le code qu'ils écrivent est très sûr, ce qui revient à prendre des "drogues" et à fermer les yeux sur les vulnérabilités de sécurité dans le code. Ce n'est pas une bonne chose, et la confiance excessive peut souvent entraîner des problèmes de sécurité plus graves.
Les chercheurs ont également constaté que les programmeurs invités donnent aux assistants de l'IA à la sécurité du code affectent directement la sécurité du code. Si les programmeurs peuvent décrire clairement la tâche et fournir certaines fonctions d'assistance, le code écrit par l'assistant AI sera plus sécurisé. Mais si les programmeurs s'appuient aveuglément sur des assistants d'IA et utilisent même le code généré directement par les assistants d'IA, il équivaut à copier et à coller la "vulnérabilité de sécurité" dans leur propre code, et le résultat peut être imaginé.
Alors, l'assistant de programmation AI peut-il être utilisé?
La réponse est: elle peut être utilisée, mais soyez prudent! Lorsque vous utilisez des assistants IA, les programmeurs doivent toujours être vigilants, vérifiez soigneusement le code pour éviter les vulnérabilités de sécurité.
Adresse papier: https://arxiv.org/pdf/2211.03622
En bref, les assistants de programmation AI ne sont pas omnipotends. La dépendance excessive sur les assistants de l'IA peut présenter de sérieux risques de sécurité, de sorte que l'examen du code et la sensibilisation à la sécurité sont toujours cruciaux.