Los ciberdelincuentes utilizan cada vez más la tecnología de inteligencia artificial para mejorar sus capacidades de ataque. Recientemente, las empresas de seguridad descubrieron que bandas de ciberdelincuentes utilizaban el modelo de inteligencia artificial Llama2 de Meta para generar scripts de ataque dirigidos a empresas de servicios financieros, lo que generó preocupación en la industria sobre la aplicación maliciosa de inteligencia artificial. Aunque las capacidades de detección de ataques de IA son actualmente limitadas, los expertos en seguridad predicen que dichas capacidades mejorarán en el futuro. Este incidente pone de relieve las características de arma de doble filo de la tecnología de inteligencia artificial, que no sólo puede promover el progreso tecnológico, sino también utilizarse para actividades ilegales.
Las bandas de ciberdelincuentes utilizan la inteligencia artificial Llama2 de Meta para lanzar ataques y generar scripts de ataque dirigidos a empresas de servicios financieros. Las empresas de seguridad dicen que las capacidades de detección de ataques de IA son limitadas, pero se espera que aumenten. Es posible que existan intentos futuros de utilizar la IA de forma maliciosa, pero los resultados resultantes pueden no ser válidos.
Aunque la tecnología de inteligencia artificial ofrece muchas ventajas, también es necesario estar alerta ante el riesgo de que se abuse de ella. Fortalecer la protección de la seguridad de la inteligencia artificial, mejorar las capacidades de detección de ataques y mejorar las leyes y regulaciones pertinentes son cruciales para hacer frente a posibles delitos de IA en el futuro. Sólo así podremos minimizar el riesgo de uso malicioso de la tecnología de inteligencia artificial y garantizar la seguridad de la red y la estabilidad social.