L’élection présidentielle américaine de 2024 approche et l’intelligence artificielle (IA) générative affecte cette compétition politique d’une manière sans précédent. Des images de propagande politique générées par l’IA aux faux appels téléphoniques, la technologie de l’IA est utilisée pour influencer le jugement des électeurs et même manipuler les résultats des élections. L'éditeur de Downcodes vous donnera une compréhension approfondie de la manière dont la technologie de l'IA peut être utilisée de manière malveillante lors des élections et de la manière dont nous pouvons relever ce défi émergent.
À l’approche de l’élection présidentielle américaine de 2024, nous sommes entrés dans une nouvelle ère : l’intelligence artificielle (IA) générative a commencé à faire sa marque sur la scène électorale. Imaginez, les décisions de vote des électeurs peuvent être influencées par des images, des vidéos et des audios générés par l'IA. Ce n'est pas une blague ! Il n'y a pas si longtemps, l'ancien président Trump a partagé une série d'images générées par l'IA montrant les fans de Taylor Swift portant des T-shirts. son soutien, et les photos ont été initialement signalées comme étant satiriques.
Plus inquiétant encore, en janvier, certains habitants du New Hampshire ont reçu de faux appels téléphoniques pour tenter de les empêcher de participer à la primaire démocrate. À quelques mois du jour du vote, les experts affirment qu’une désinformation similaire liée à l’IA ne fera que s’intensifier et que la technologie permettant de l’identifier reste immature. Lance Hunter, professeur de sciences politiques à l'Université de Géorgie, a déclaré : « Si certaines personnes ne se rendent pas compte que cela est faux, cela pourrait avoir un impact matériel sur le résultat de l'élection. »
L'IA générative a des applications bien au-delà des chatbots, avec la capacité de générer une variété d'images, de vidéos et d'audio. Cette technologie se répand rapidement dans le monde et est facilement accessible à tous, y compris à ceux qui souhaitent l’utiliser à des fins malveillantes. En fait, cela s'est produit dans des pays comme l'Inde, l'Indonésie et la Corée du Sud, même s'il n'est pas clair si ces contenus ont réellement influencé les choix des électeurs. Mais imaginez l’impact sur le vote si une fausse vidéo de Trump ou du vice-président Harris devenait virale !
L’Agence de cybersécurité et de sécurité des infrastructures (CISA) du Département américain de la sécurité intérieure est en état d’alerte maximale face aux menaces que l’IA générative peut représenter. "Des adversaires étrangers ont ciblé les élections américaines et leurs infrastructures lors des élections précédentes, et nous nous attendons à ce que cette menace persiste en 2024", a déclaré Kate Conley, conseillère principale de la CISA. Elle a souligné que la CISA travaillait au nom des États et des localités. des conseils sur les opérations d’influence extérieure et la désinformation.
Alors, comment mettre fin au chaos provoqué par l’IA générative avant les élections ? Le problème est qu’une grande partie du contenu généré est difficile à distinguer facilement entre l’authenticité et la fausseté. Avec les progrès de la technologie, le contenu généré par l'IA est passé de l'image étrange de « 15 doigts » à l'image réaliste d'aujourd'hui.
En juillet dernier, l’administration Biden a obtenu des engagements volontaires de la part d’entreprises telles qu’Amazon, Anthropic, Google, Meta, Microsoft et OpenAI pour faire face aux risques potentiels posés par l’IA. Toutefois, ces accords ne sont pas juridiquement contraignants. Le professeur Hunter estime qu'il y aura à l'avenir un soutien bipartisan en faveur d'une législation au niveau fédéral visant à contrôler spécifiquement les faux contenus dans les campagnes politiques.
Plateformes de médias sociaux telles que Meta, TikTok et Cependant, les outils de détection existants ne sont pas idéaux. Certains outils ont même été critiqués comme étant de « l'huile de serpent » et ne peuvent pas fournir de réponses exactes, ne donnant souvent que de vagues jugements de « probabilité de 85 % ».
À l’approche du jour des élections, la technologie de l’IA générative continue de se développer rapidement, ce qui soulève des inquiétudes quant à savoir si des acteurs malveillants utiliseront cette technologie pour créer davantage de chaos en ligne avant le début du vote. Quant à la situation finale des élections, tout le monde attend de la voir.
Face aux risques électoraux posés par l'IA, le gouvernement, les entreprises technologiques et les plateformes de médias sociaux doivent travailler ensemble pour renforcer la supervision et améliorer la capacité de discernement du public afin de garantir des élections justes et justes. Ce jeu avec la technologie IA ne fait que commencer.