À l’approche des élections américaines de 2024, la technologie de l’IA générative et son application lors des élections ont attiré une large attention. Les éditeurs de downcodes vous donneront une compréhension approfondie de la manière dont la technologie de l'IA affecte les élections, ainsi que des mesures prises par les États et le gouvernement fédéral pour éviter les abus de l'IA. Cet article analysera les risques potentiels de l’IA lors des élections et explorera les lacunes du contrôle juridique actuel, ainsi que les mesures réglementaires plus complètes et efficaces qui pourraient être nécessaires à l’avenir. Explorons l'avenir de la technologie de l'IA et des élections démocratiques.
À l’approche des élections américaines de 2024, le développement rapide de la technologie de l’IA attire de plus en plus l’attention. Récemment, l'analyse d'Axios a montré qu'au moins 26 États ont adopté ou envisagent de adopter des lois pour réglementer l'utilisation de l'IA générative lors des élections. Cela signifie que lors des prochaines élections, l’IA ne sera plus un simple outil technique, mais un « game changer » pouvant affecter les résultats du vote.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
On sait que l’IA générative peut parfois être utilisée à des fins malveillantes et peut même provoquer la confusion et la suppression des électeurs. Le sénateur de Virginie, Mark Warner, a souligné dans un courrier électronique que le risque d'une mauvaise utilisation de la technologie de l'IA ne peut être sous-estimé. Il a déclaré : « Je pense que les entreprises et les plateformes développant l'IA générative ne prêtent pas suffisamment attention aux risques d'abus. Cela a amené de nombreuses personnes à s'inquiéter de savoir si l'utilisation de l'IA affecterait l'équité des élections démocratiques. »
En fait, il existe de nombreux cas où l’IA générative a été utilisée pour induire les électeurs en erreur. Par exemple, dans le New Hampshire, quelqu'un a utilisé de faux appels téléphoniques générés par l'IA pour imiter la voix de Biden afin d'encourager les électeurs démocrates à ne pas participer aux primaires. En juillet de l'année dernière, un super comité d'action politique soutenant le gouverneur de Floride DeSantis a également utilisé l'IA pour imiter la voix de Trump afin de créer des publicités pour l'attaquer. Ces incidents ont fait prendre conscience que l’utilisation abusive de l’IA est devenue un problème incontournable.
Bien que certains États aient commencé à agir, comme le Texas qui est devenu le premier État en 2019 à interdire la production et la distribution de vidéos deepfake ciblant les candidats, les mesures réglementaires concernant l'IA au niveau fédéral restent limitées. Même le décret du président Biden sur l’IA est pour l’essentiel volontaire et manque d’application.
Actuellement, 19 États ont adopté des lois réglementant spécifiquement les médias « deepfakes » générés par l’IA. Parmi eux, la loi californienne interdit la diffusion de contenus audio et vidéo « substantiellement trompeurs » dans les 60 jours précédant une élection, tandis que le Minnesota et le Michigan interdisent la diffusion de contenus faux profonds générés par l’IA dans les 90 jours précédant une élection en 2023. En outre, le Nouveau-Mexique, la Floride, l’Utah et d’autres ont également adopté cette année des lois exigeant la divulgation du contenu généré par l’IA.
Bien que certains États envisagent certaines exceptions lorsqu'ils examinent les lois pertinentes, par exemple si le contenu contient des divulgations ou s'il s'agit de publicités satiriques et parodiques, les États diffèrent toujours dans la classification et les sanctions en cas de violation. Alors que de plus en plus d’États prennent des mesures, les experts affirment qu’une véritable solution au problème nécessitera une action globale au niveau fédéral.
** Points forts: **
? ** Au moins 26 États envisagent ou ont adopté des lois réglementant l'utilisation de l'IA générative lors des élections. **
? **Les cas d'utilisation malveillante de la technologie de l'IA sont fréquents, notamment de faux appels téléphoniques et des publicités imitant les voix des candidats. **
** Actuellement, les mesures réglementaires au niveau fédéral sont relativement limitées et les lois varient d'un État à l'autre. Un cadre juridique plus complet est nécessaire de toute urgence. **
Dans l’ensemble, l’application de la technologie de l’IA lors des élections est une arme à double tranchant, à la fois pratique et risquée. Afin de garantir l’équité et la justice des élections, il est urgent de renforcer la supervision au niveau fédéral et d’unifier les normes juridiques entre les États. L'éditeur de Downcodes appelle les départements et institutions concernés à répondre activement à ce défi et à formuler des lois et réglementations plus complètes pour garantir la transparence et l'équité des élections.