Récemment, une controverse très médiatisée a émergé lors d'un procès fédéral au Minnesota concernant la loi « utilisant la technologie deepfake pour influencer les élections » : le contenu de l'affidavit soutenant la loi a été remis en question en tant que texte généré par l'IA. Le cœur de cet incident est que dans les preuves présentées par le procureur général, de nombreux documents de recherche étaient prétendument inexistants, ce qui a soulevé des inquiétudes quant à l'application de la technologie de l'intelligence artificielle dans le domaine juridique et de graves défis dans la vérification de l'authenticité. d'informations. Cet incident n'est pas seulement lié à l'équité des procédures judiciaires, mais souligne également l'importance de maintenir l'exactitude des informations à l'ère de l'intelligence artificielle.
Récemment, une nouvelle controverse est apparue dans le cadre d’un procès fédéral en cours au Minnesota concernant l’utilisation de deepfakes pour influencer les élections. Les affidavits soutenant la loi peuvent contenir du texte généré par l'intelligence artificielle, ont déclaré les avocats des plaignants dans le dernier dossier judiciaire.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Selon le Minnesota Reformer, le procureur général de l’État, Keith Ellison, a demandé à Jeff Hancock, directeur fondateur du Stanford Social Media Lab, de fournir des preuves pertinentes. Cependant, plusieurs des études mentionnées dans l’affidavit de Hancock manquent de preuves substantielles et montrent de possibles « hallucinations » liées à l’IA.
L'affidavit de Hancock citait une étude de 2023 publiée dans le Journal of Information Technology and Politics intitulée « L'impact des vidéos Deepfake sur les attitudes et les comportements politiques ».
Cependant, aucune trace de l’étude n’a été trouvée dans la revue ou dans toute autre publication, selon les rapports. En outre, une autre étude mentionnée dans l'affidavit intitulée « Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind the Acceptance of Misinformation » manque également de fondement empirique.
En réponse, les avocats de la représentante du Minnesota, Mary Franson, et du YouTubeur conservateur Christopher Khols, ont déclaré dans le dossier : « Ces citations ont clairement pour effet d'« illusion » d'intelligence artificielle (IA), ce qui implique qu'au moins une partie du contenu est générée par de grandes modèles de langage tels que ChatGPT. » Ils ont en outre souligné qu’une telle situation remet en question la crédibilité de l’ensemble de l’affidavit, notamment parce que bon nombre de ses arguments manquent de soutien méthodologique et logique analytique.
Hancock n'a pas répondu à l'incident. Cet incident a déclenché une discussion sur l'application de l'intelligence artificielle dans le domaine juridique, notamment lorsqu'il s'agit d'intérêt public et de questions électorales. Comment garantir l'exactitude et la fiabilité des informations est devenu un sujet important.
Cet incident attire non seulement l’attention sur l’impact de la technologie des deepfakes, mais propose également une nouvelle réflexion à la communauté juridique lorsqu’elle traite des preuves liées à l’intelligence artificielle. Comment identifier et vérifier efficacement les sources d’information est devenu un défi important auquel il faut faire face dans la pratique juridique.
Souligner:
Le contenu de l’affidavit du Minnesota Deepfakes Act a été remis en question comme étant un texte généré par l’IA.
L'équipe juridique a souligné que les recherches citées n'existaient pas et soupçonnaient qu'il s'agissait d'une « hallucination » de l'IA.
Cet incident a déclenché un large débat sur l’utilisation de l’intelligence artificielle dans les documents juridiques, en mettant l’accent sur l’exactitude des informations.
Cet incident a sonné l'alarme pour la communauté juridique, nous rappelant que nous devons réexaminer l'application de la technologie de l'intelligence artificielle dans les preuves juridiques et établir un mécanisme de vérification plus complet pour garantir l'équité et la fiabilité des procédures judiciaires. À l’avenir, la manière d’identifier et de prévenir efficacement les fausses informations générées par l’IA deviendra un sujet important.