Récemment, une controverse très médiatisée a émergé lors d’un procès fédéral au Minnesota concernant l’utilisation de deepfakes pour influencer les élections. Dans les preuves soumises par le procureur général de l'État, certaines références à des recherches clés étaient soupçonnées d'être générées par l'intelligence artificielle, déclenchant un large débat sur l'application de l'intelligence artificielle dans le domaine juridique et des questions importantes sur la manière d'en garantir l'exactitude et la fiabilité. d'informations. L'éditeur de Downcodes procédera à une analyse détaillée de cet incident.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Selon le Minnesota Reformer, le procureur général de l’État, Keith Ellison, a demandé à Jeff Hancock, directeur fondateur du Stanford Social Media Lab, de fournir des preuves pertinentes. Cependant, plusieurs des études mentionnées dans l’affidavit de Hancock manquent de preuves substantielles et montrent de possibles « hallucinations » liées à l’IA.
L'affidavit de Hancock citait une étude de 2023 publiée dans le Journal of Information Technology and Politics intitulée « L'impact des vidéos Deepfake sur les attitudes et les comportements politiques ».
Cependant, aucune trace de l’étude n’a été trouvée dans la revue ou dans toute autre publication, selon les rapports. En outre, une autre étude mentionnée dans l'affidavit intitulée « Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind the Acceptance of Misinformation » manque également de fondement empirique.
En réponse, les avocats de la représentante du Minnesota, Mary Franson, et du YouTubeur conservateur Christopher Khols, ont déclaré dans le dossier : « Ces citations ont clairement pour effet d'« illusion » d'intelligence artificielle (IA), ce qui implique qu'au moins une partie du contenu est générée par de grandes modèles de langage tels que ChatGPT. » Ils ont en outre souligné qu’une telle situation remet en question la crédibilité de l’affidavit dans son ensemble, notamment parce que bon nombre de ses arguments manquent de soutien méthodologique et logique analytique.
Hancock n'a pas répondu à l'incident. Cet incident a déclenché une discussion sur l'application de l'intelligence artificielle dans le domaine juridique, notamment lorsqu'il s'agit d'intérêt public et de questions électorales. Comment garantir l'exactitude et la fiabilité des informations est devenu un sujet important.
Cet incident attire non seulement l’attention sur l’impact de la technologie des deepfakes, mais propose également une nouvelle réflexion à la communauté juridique lorsqu’elle traite des preuves liées à l’intelligence artificielle. Comment identifier et vérifier efficacement les sources d’information est devenu un défi important auquel il faut faire face dans la pratique juridique.
Cet incident a révélé les risques liés à l'application de la technologie de l'IA dans le domaine juridique et nous a également avertis que nous devons être prudents à l'égard du contenu généré par l'IA, en particulier lors de l'application de documents de preuve, et qu'un examen et une vérification stricts sont nécessaires pour garantir l'authenticité. et la fiabilité des informations. Cela est crucial pour maintenir l’équité et l’autorité de la loi.