Cet article analyse un rapport récent publié par Meta, qui évalue l'impact de l'intelligence artificielle générative sur les élections dans plusieurs pays et régions du monde. Le rapport conclut que, bien qu'il existe certains cas d'utilisation de l'intelligence artificielle à des fins de propagande politique ou de diffusion de fausses informations, l'ampleur de son impact est bien moindre que prévu, et les politiques et mesures existantes de Meta sont suffisantes pour relever ce défi. Le rapport détaille les mesures de réponse prises par Meta et analyse la diffusion de fausses informations sur d'autres plateformes.
Au début de l’année, les inquiétudes étaient largement répandues quant à la manière dont l’IA générative pourrait interférer avec les élections mondiales et propager la propagande et la désinformation. Cependant, un récent rapport de Meta a montré que ces préoccupations n'ont pas été prises en compte sur sa plateforme. Meta a déclaré que sur les plateformes sociales telles que Facebook, Instagram et Threads, l'intelligence artificielle générative a un impact extrêmement limité sur les informations liées aux élections.
Remarque sur la source de l'image : l'image est générée par l'IA et l'image est autorisée par le fournisseur de services Midjourney
Selon les recherches de Meta, le rapport couvre les élections majeures dans plusieurs pays et régions, notamment les États-Unis, le Bangladesh, l'Indonésie, l'Inde, le Pakistan, le Parlement européen, la France, le Royaume-Uni, l'Afrique du Sud, le Mexique et le Brésil. Meta a noté que même s’il y a eu certaines utilisations confirmées ou suspectées de l’intelligence artificielle pendant les élections, le nombre global était encore faible et les politiques et processus existants étaient suffisants pour réduire les risques posés par le contenu de l’IA générative. Le rapport montre qu'au cours de la période électorale mentionnée ci-dessus, le contenu de l'IA lié aux élections, à la politique et aux sujets sociaux représentait moins de 1 % des fausses informations vérifiées.
Pour éviter les fausses images liées aux élections, le générateur d’images Imagine AI de Meta a rejeté près de 590 000 images créées impliquant Trump, le vice-président Harris, le gouverneur Walz et le président Biden au cours du mois précédant la demande du jour du scrutin. De plus, Meta a constaté que les comptes en ligne tentant de diffuser de la propagande ou de la désinformation ne généraient que des gains mineurs en termes de productivité et de génération de contenu lorsqu’ils utilisaient l’IA générative.
Meta a souligné que l’utilisation de l’IA n’entrave pas sa capacité à lutter contre ces activités d’influence secrètes, car l’entreprise se concentre sur le comportement de ces comptes plutôt que sur le contenu qu’ils publient, que ce contenu soit généré ou non par l’IA. En outre, Meta a également annoncé avoir supprimé environ 20 nouvelles opérations d’influence secrètes dans le monde afin de prévenir toute ingérence étrangère. La plupart de ces réseaux à succès n’ont pas de véritable audience, et certains affichent même faussement leur popularité à travers de faux likes et followers.
Meta a également blâmé d'autres plateformes, affirmant que de fausses vidéos liées aux élections américaines apparaissent souvent sur des plateformes telles que X. Meta a déclaré qu'elle continuerait à revoir ses politiques tout en faisant le point sur les leçons apprises au cours de l'année et qu'elle annoncerait tout changement dans les mois à venir.
Dans l’ensemble, le rapport de Meta fournit des données de référence précieuses sur l’impact de l’intelligence artificielle générative sur les élections, et ses mesures de réponse proactives méritent également d’être apprises. Toutefois, un suivi et des améliorations continus sont encore nécessaires pour relever les défis qui pourraient surgir à l’avenir. Les progrès technologiques doivent être coordonnés avec les stratégies de supervision et de réponse correspondantes pour mieux maintenir la santé et la stabilité de l’environnement réseau.