Les cybercriminels utilisent de plus en plus la technologie de l’intelligence artificielle pour améliorer leurs capacités d’attaque. Récemment, des sociétés de sécurité ont découvert que des gangs de cybercriminels utilisaient le modèle d'intelligence artificielle Llama2 de Meta pour générer des scripts d'attaque ciblant les sociétés de services financiers, ce qui a suscité des inquiétudes dans le secteur concernant l'application malveillante de l'intelligence artificielle. Bien que les capacités de détection des attaques de l’IA soient actuellement limitées, les experts en sécurité prédisent que ces capacités seront améliorées à l’avenir. Cet incident met en évidence les caractéristiques à double tranchant de la technologie de l’intelligence artificielle, qui peut non seulement promouvoir le progrès technologique, mais également être utilisée pour des activités illégales.
Les gangs de cybercriminels utilisent l'intelligence artificielle Llama2 de Meta pour lancer des attaques et générer des scripts d'attaque visant à cibler les sociétés de services financiers. Les entreprises de sécurité affirment que les capacités de détection des attaques de l’IA sont limitées mais qu’elles devraient augmenter. De futures tentatives d’utilisation malveillante de l’IA pourraient exister, mais les résultats qui en résulteraient pourraient ne pas être valides.
Bien que la technologie de l’intelligence artificielle apporte de nombreux avantages, elle doit également être attentive aux risques d’abus. Le renforcement de la protection de la sécurité de l’intelligence artificielle, l’amélioration des capacités de détection des attaques et l’amélioration des lois et réglementations pertinentes sont essentiels pour faire face à d’éventuels crimes liés à l’IA à l’avenir. Ce n’est qu’ainsi que nous pourrons minimiser le risque d’utilisation malveillante de la technologie de l’intelligence artificielle et garantir la sécurité des réseaux et la stabilité sociale.