Jeff Hancock, professeur de communication à l'Université de Stanford, a attiré l'attention après avoir été accusé d'avoir utilisé l'intelligence artificielle pour falsifier un témoignage dans une affaire impliquant de fausses vidéos politiques. L'affaire, intentée par le procureur général du Minnesota, se concentre sur une loi récemment adoptée interdisant les vidéos politiques deepfake, qui a remis en question la légalité de la loi et son impact possible sur la liberté d'expression. L'éditeur de Downcodes fournira une interprétation détaillée de cet incident et analysera son impact sur l'intégrité académique et l'application juridique de l'intelligence artificielle.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Le professeur Hancock a soumis des déclarations d'experts à l'appui de la loi, mais a cité des recherches non fondées. L'équipe juridique a souligné dans une note de 36 pages que le document de recherche cité par le professeur Hancock n'existe pas du tout et que son contenu pourrait avoir été généré par l'intelligence artificielle. Ils ont détaillé leur processus de recherche et n’ont pas réussi à trouver l’étude dans plusieurs sources.
Dans la note, les avocats détaillaient leurs tentatives pour retrouver l’étude, soulignant que les informations n’avaient pas pu être trouvées sur Internet et dans plusieurs moteurs de recherche universitaires. "Un extrait de ce titre ne peut être trouvé nulle part, pas même dans Google Scholar", ont-ils déclaré. Les avocats ont remis en question le témoignage de Hancock, arguant qu'il aurait pu être généré par l'intelligence artificielle. Un contenu faux affecte sérieusement la crédibilité de la déclaration.
En outre, les avocats ont souligné que la déclaration de Hancock manquait de la méthodologie de recherche et de la logique analytique nécessaires, ce qui remettait en question la crédibilité de l'ensemble de la déclaration. Ils ont fait valoir que si une partie de la déclaration était fausse, l'ensemble du témoignage devrait être considéré comme peu fiable et ont appelé le tribunal à l'exclure de son examen.
L’incident a déclenché un large débat sur l’intégrité académique et l’application de l’intelligence artificielle dans le domaine juridique. Actuellement, l’affaire est toujours en cours et la décision finale du tribunal n’a pas encore été rendue.
L’issue de l’affaire Hancock aura un impact profond sur l’application de l’intelligence artificielle dans le domaine juridique et sonnera également l’alarme auprès de la communauté universitaire sur l’importance de l’intégrité académique. À l’avenir, la manière d’identifier et de prévenir efficacement les fausses informations générées par l’intelligence artificielle deviendra un sujet important. Nous attendons avec impatience la décision finale du tribunal et continuerons à prêter attention à l’évolution ultérieure de cet incident.