Os cibercriminosos estão usando cada vez mais tecnologia de inteligência artificial para aprimorar suas capacidades de ataque. Recentemente, empresas de segurança descobriram que gangues cibercriminosas usavam o modelo de inteligência artificial Llama2 da Meta para gerar scripts de ataque direcionados a empresas de serviços financeiros, o que levantou preocupações na indústria sobre a aplicação maliciosa de inteligência artificial. Embora as capacidades de detecção de ataques de IA sejam actualmente limitadas, os especialistas em segurança prevêem que tais capacidades serão melhoradas no futuro. Este incidente realça as características de espada de dois gumes da tecnologia de inteligência artificial, que pode não só promover o progresso tecnológico, mas também ser utilizada para actividades ilegais.
Gangues cibercriminosas usam a inteligência artificial Llama2 da Meta para lançar ataques e gerar scripts de ataque para atingir empresas de serviços financeiros. As empresas de segurança afirmam que as capacidades de detecção de ataques de IA são limitadas, mas deverão aumentar. Podem existir tentativas futuras de usar IA de forma maliciosa, mas os resultados resultantes podem não ser válidos.
Embora a tecnologia de inteligência artificial traga muitas conveniências, ela também precisa estar alerta ao risco de seu abuso. Reforçar a proteção da segurança da inteligência artificial, melhorar as capacidades de deteção de ataques e melhorar as leis e regulamentos relevantes são cruciais para lidar com possíveis crimes de IA no futuro. Só desta forma poderemos minimizar o risco de utilização maliciosa da tecnologia de inteligência artificial e garantir a segurança da rede e a estabilidade social.