Ces dernières années, la technologie de l’intelligence artificielle (IA) s’est développée rapidement, offrant d’énormes opportunités aux entreprises, mais aussi de nombreux risques. L'éditeur de Downcodes a compilé un rapport sur la manière dont les entreprises devraient gérer les risques liés à l'IA générative. Le rapport souligne que la plupart des entreprises n'ont pas encore formulé de stratégies de réponse efficaces aux risques liés à l'IA générative, notamment en termes de sécurité des réseaux, de fraude réseau basée sur l'IA, etc. La menace devient de plus en plus grave et mérite l'attention des entreprises.
Ces dernières années, le développement rapide de l’intelligence artificielle (IA) a apporté de nombreuses opportunités aux entreprises, mais dans le même temps, ses menaces potentielles sont devenues de plus en plus évidentes. Selon le dernier « New Generation Risk Report » 2024, l'enquête montre que jusqu'à 80 % des entreprises interrogées n'ont pas encore formulé de plan de réponse spécial aux risques génératifs de l'IA, qui inclut des risques de sécurité tels que la fraude en ligne induite par l'IA.
L'enquête, menée par la société de logiciels de gestion des risques Riskconnect, a porté sur 218 professionnels mondiaux de la conformité aux risques et de la résilience. Les résultats montrent que 24 % des personnes interrogées estiment que les menaces de cybersécurité induites par l'IA (telles que les ransomwares, le phishing et les deepfakes) auront un impact significatif sur les entreprises au cours des 12 prochains mois. Parallèlement, 72 % des personnes interrogées ont déclaré que les risques de cybersécurité avaient un impact significatif ou grave sur leur organisation, contre 47 % l'année dernière.
Alors que les préoccupations concernant des questions telles que l'éthique, la confidentialité et la sécurité de l'IA s'intensifient, le rapport souligne que, même si les préoccupations des entreprises concernant l'IA se sont accrues, elles n'ont pas réussi à donner suite aux stratégies de gestion des risques en temps opportun et il existe encore de nombreuses lacunes clés. . Par exemple, 65 % des entreprises n’ont mis en place aucune politique concernant l’utilisation de l’IA générative par les partenaires et les fournisseurs, même si les tiers constituent un canal d’entrée courant pour les cyber-fraudeurs.
Les menaces internes ne peuvent pas non plus être sous-estimées. Prenant comme exemple l'utilisation par les entreprises de l'IA générative pour produire du contenu marketing, l'expert en marketing Anthony Miyazaki a rappelé que même si l'IA générative est excellente pour écrire du texte, la copie finale doit encore être modifiée manuellement pour garantir son caractère convaincant et son exactitude. En outre, s’appuyer sur l’IA pour générer du contenu de site Web peut également avoir des conséquences négatives. Par exemple, Google a clairement indiqué que si le contenu de l’IA était utilisé pour manipuler le processus de recherche, son classement dans les recherches serait réduit, ce qui aurait un impact sérieux. sur l'optimisation des moteurs de recherche (SEO) des entreprises.
Pour relever ces défis, les entreprises doivent garantir une couverture complète des politiques internes, sécuriser les données sensibles et se conformer aux réglementations en vigueur. John Skimoni, responsable de la sécurité de Del Technology, a déclaré qu'ils avaient formulé des principes pertinents avant l'engouement pour l'IA générative pour garantir que le développement des applications d'IA soit juste, transparent et responsable.
Au sein de l'agence de marketing numérique Empathy First Media, le vice-président Ryan Doser a également souligné les mesures strictes que l'entreprise a prises concernant l'utilisation de l'IA par les employés, notamment en interdisant la saisie de données sensibles sur les clients dans les outils d'IA génératives et en exigeant un examen manuel du contenu généré par l'IA. Ces mesures visent à accroître la transparence et à renforcer la confiance des clients.
Dans l'ensemble, les entreprises doivent réagir activement aux risques de sécurité posés par l'IA générative, formuler des stratégies globales de gestion des risques et renforcer la formation des employés afin de rester compétitives et d'assurer la sécurité de l'entreprise à l'ère de l'IA. L'éditeur de Downcodes recommande aux entreprises de se référer aux suggestions du rapport et de prendre activement des mesures pour prévenir les problèmes dans l'œuf.