Le dernier rapport de Gartner montre que les cyberattaques alimentées par l'IA sont devenues le plus grand risque auxquelles sont confrontés les entreprises et ont été classés en premier pendant les trois quarts. Le rapport est basé sur une enquête auprès de 286 cadres supérieurs sur les risques et audits, et 80% des répondants ont exprimé leur inquiétude concernant les attaques malveillantes améliorées par l'IA. Les attaquants utilisent l'IA pour écrire des logiciels malveillants, créer des e-mails de phishing réalistes et même effectuer des attaques de déni de service distribuées à grande échelle. L'application de l'IA réduit le seuil de cybercriminalité, permettant aux attaquants avec des niveaux techniques plus faibles de réaliser facilement des cyberattaques complexes, ce qui pose de graves défis à la protection de la sécurité des entreprises.
Selon un dernier rapport publié par Gartner, l'application de l'intelligence artificielle (IA) dans les cyberattaques est devenue le plus grand risque auxquels est confronté les entreprises pendant trois trimestres consécutifs.
Le cabinet de conseil a interrogé 286 cadres supérieurs des risques et des audits entre juillet et septembre et a constaté que 80% des répondants exprimaient de profondes préoccupations concernant les attaques malveillantes améliorées par l'IA. Cette tendance n'est pas surprenante, car il existe des preuves que les cyberattaques utilisant l'IA sont en augmentation.
Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Le rapport répertorie également certains autres risques émergents, notamment les informations assistées par AI-A-Claigning, l'augmentation de la polarisation politique et l'allocation des talents organisationnels dépareillés. Les attaquants utilisent l'IA pour écrire des logiciels malveillants, faire des e-mails de phishing, etc. Prenons l'exemple des HP, les chercheurs ont intercepté une campagne de courrier électronique qui propage des logiciels malveillants en juin, soupçonnant que ses scripts ont été écrits avec l'aide d'une IA générative. Le script est bien structuré et chaque commande a des commentaires, ce qui n'est pas courant dans l'écriture manuelle.
Selon les données de la société de sécurité Vipre, le nombre d'attaques de fraude par courrier électronique d'entreprise a augmenté de 20% au deuxième trimestre de 2023 par rapport à la même période l'année dernière, dont près de 50% ont été générés par l'IA. Les PDG, les HR et le personnel informatique sont les principaux objectifs. Le chef des produits et technologies de Vipre, Usman Choudhary, a déclaré que les criminels utilisent des algorithmes sophistiqués d'IA pour créer des e-mails de phishing convaincants qui imitent le ton et le style des communications légitimes.
En outre, les sites de vente au détail ont subi en moyenne 569 884 attaques alimentées par AI par jour, selon le rapport de recherche sur les menaces Imperva. Les chercheurs ont noté que des outils comme Chatgpt, Claude et Gemini, ainsi que des robots spécialisés dans les données sur le site Web rampant pour former des modèles de grandes langues, sont utilisés pour effectuer des activités telles que le déni de service distribué et la maltraitance de la logique des affaires.
De plus en plus de pirates éthiques ont également reconnu l'utilisation de l'IA générative, le pourcentage passant de 64% l'an dernier à 77%. Les chercheurs disent que l'IA peut aider à des attaques multicanaux, à des attaques d'injection d'échec et à des attaques automatiques, qui peuvent attaquer plusieurs appareils simultanément. En tant que tels, si les «bonnes personnes» pensent que l'IA est utile, les «mauvaises personnes» utiliseront également cette technologie.
La montée de l'IA n'est pas surprenante car elle réduit le seuil de cybercriminalité, permettant aux criminels avec des niveaux techniques plus faibles d'utiliser l'IA pour générer une contrefaçon profonde, des portails de réseau de numérisation, une reconnaissance de réalisation, etc. Des chercheurs de l'Institut fédéral de technologie suisse ont récemment développé un modèle qui peut résoudre le problème de Google Recaptcha V2 à 100%. Les analystes de la société de sécurité Radware ont prédit au début de cette année que l'émergence de modèles GPT privés sera utilisée à des fins malveillantes, et le nombre de vulnérabilités et de fraude à la fin des falos augmentera en conséquence.
Gartner a également noté que les principaux problèmes des fournisseurs informatiques figuraient pour la première fois sur la liste des cadres. Zachary Ginsburg, directeur principal des pratiques de risque et d'audit chez Gartner, a déclaré que les clients qui dépendent centralement d'un seul fournisseur peuvent faire face à des risques plus élevés. Tout comme l'incident que Dstrike s'est produit en juillet, paralysant 8,5 millions d'appareils Windows dans le monde, provoquant d'énormes impacts sur les services d'urgence, les aéroports et les organismes d'application de la loi.
En bref, l'effet d'épée à double tranchant de la technologie de l'IA devient de plus en plus importante. Les attaques de réseau et assurent leur propre sécurité à l'ère numérique.