En los últimos años, los asistentes de programación de IA se han vuelto rápidamente populares debido a su potencial para mejorar la eficiencia y se han convertido en una herramienta poderosa para muchos programadores. Sin embargo, un estudio reciente de la Universidad de Stanford ha revelado los riesgos potenciales de los asistentes de programación de IA. Esta investigación ha generado preocupaciones sobre la seguridad de la programación asistida por IA y nos ha recordado que no podemos confiar ciegamente en las herramientas de IA. El editor de Downcodes le brindará una comprensión profunda de los hallazgos y conclusiones de este estudio.
Recientemente, los asistentes de programación de IA se han vuelto muy populares y afirman poder ayudar a los programadores a escribir código y mejorar la eficiencia. Muchos programadores incluso lo consideran un "salvador" y están ansiosos por escribir código con él todos los días. Sin embargo, un estudio de la Universidad de Stanford arrojó un jarro de agua fría sobre estos "fanáticos entusiastas": ¡los asistentes de programación de IA pueden ser una "pesadilla de seguridad"!
Investigadores de la Universidad de Stanford pidieron a 47 programadores que completaran cinco tareas de programación relacionadas con la seguridad, cubriendo tres lenguajes: Python, JavaScript y C. ¡Se descubrió que los programadores que usaban asistentes de inteligencia artificial para escribir código escribían código significativamente menos seguro!
Esto no es alarmista. El asistente de programación de IA es como un "pasante poco confiable". Aunque puede escribir un código aparentemente correcto, no sabe nada sobre problemas de seguridad. Por ejemplo, en la tarea de cifrado y descifrado, aunque el código generado por el asistente de IA puede cifrar correctamente la información, no devuelve la etiqueta de autenticación necesaria. Esto equivale a instalar un candado en la caja fuerte pero no entregar la clave. , lo que reduce enormemente la seguridad.
Lo que es aún peor es que es más probable que los programadores que utilizan asistentes de inteligencia artificial sientan que el código que escriben es muy seguro. Esto es como tomar "éxtasis" y hacer la vista gorda ante las vulnerabilidades de seguridad en el código. Esto no es bueno y el exceso de confianza a menudo conduce a problemas de seguridad más graves.
Los investigadores también descubrieron que los consejos que los programadores dan a los asistentes de IA afectarán directamente la seguridad del código. Si el programador puede describir la tarea claramente y proporcionar algunas funciones auxiliares, el código escrito por el asistente de IA será más seguro. Pero si los programadores confían ciegamente en los asistentes de IA, o incluso usan directamente el código generado por los asistentes de IA, es equivalente a copiar y pegar "vulnerabilidades de seguridad" en su propio código, y los resultados se pueden imaginar.
Entonces, ¿se puede utilizar el asistente de programación de IA?
La respuesta es: se puede utilizar, pero tenga cuidado. Los programadores no pueden considerarlo una "panacea", y mucho menos confiar en él ciegamente. Al utilizar asistentes de IA, los programadores siempre deben estar atentos y verificar el código cuidadosamente para evitar vulnerabilidades de seguridad.
Dirección del artículo: https://arxiv.org/pdf/2211.03622
Con todo, el asistente de programación de IA es un arma de doble filo. Puede mejorar la eficiencia, pero también puede conllevar riesgos de seguridad. Los programadores deben usarlo con precaución, permanecer alerta en todo momento y evitar una dependencia excesiva para maximizar sus ventajas y evitar sus riesgos. ¡El editor de Downcodes te recuerda que la codificación segura siempre es lo primero!