Le professeur de l'Université de Stanford, Jeff Hancock, a été accusé d'avoir cité une étude inexistante dans son témoignage d'expert dans une affaire impliquant de fausses vidéos politiques, soulevant des questions sur l'intégrité académique et l'application de l'IA dans le domaine juridique. L'affaire, intentée par le procureur général du Minnesota, Keith Ellison, concerne une interdiction au Minnesota qui pourrait constituer une menace à la liberté d'expression. Le témoignage du professeur Hancock a soutenu l’interdiction, mais l’équipe juridique du plaignant a estimé que les recherches qu’il a citées n’existaient pas et ont estimé qu’il pourrait s’agir de faux contenus générés par l’IA, affectant sérieusement la crédibilité du témoignage.
Récemment, Jeff Hancock, professeur de communication à l'Université de Stanford, a attiré l'attention après avoir été accusé d'avoir utilisé l'intelligence artificielle pour falsifier un témoignage dans une affaire impliquant de fausses vidéos politiques. L'affaire a été portée par le procureur général du Minnesota, Keith Ellison, au sujet de la loi récemment adoptée par le Minnesota interdisant les vidéos politiques deepfake, considérées comme une menace potentielle à la liberté d'expression.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Le professeur Hancock y soumettait une déclaration d'expert appuyant la loi préconisée par le procureur général. Cependant, l'équipe juridique a découvert qu'une étude citée par Hancock intitulée « L'impact des vidéos Deepfake sur les attitudes et les comportements politiques » n'existait pas. Ils ont souligné dans une note de 36 pages que, même si les revues pertinentes existaient, de telles recherches n'avaient jamais été publiées.
Dans la note, les avocats détaillaient leurs tentatives pour retrouver l'étude, soulignant que les informations n'étaient pas disponibles sur Internet et dans plusieurs moteurs de recherche universitaires. Ils ont déclaré : « Un fragment de ce titre ne peut être trouvé nulle part, pas même dans le moteur de recherche universitaire Google Scholar. » Les avocats ont remis en question le témoignage de Hancock, arguant qu'il pourrait avoir été généré par l'intelligence artificielle. Un contenu faux affecte sérieusement la crédibilité de la déclaration.
En outre, les avocats ont souligné que la déclaration de Hancock manquait de la méthodologie de recherche et de la logique analytique nécessaires, ce qui remettait en question la crédibilité de l'ensemble de la déclaration. Ils ont fait valoir que si certaines parties de la déclaration étaient falsifiées, l'ensemble du témoignage devrait être considéré comme peu fiable et ont appelé le tribunal à l'exclure de tout examen.
L’incident a déclenché un large débat sur l’intégrité académique et l’application de l’intelligence artificielle dans le domaine juridique. Actuellement, l’affaire est toujours en cours et la décision finale du tribunal n’a pas encore été rendue.
Souligner:
Le professeur Hancock est accusé d’avoir cité dans son témoignage une étude inexistante qui aurait pu être générée par l’IA.
Le témoignage soumis par le procureur général du Minnesota, Ellison, a été remis en question, affectant le soutien au projet de loi politique sur les vidéos deepfake.
Les avocats des plaignants ont demandé au tribunal d’exclure le témoignage de Hancock, arguant que sa crédibilité globale était sérieusement affectée.
Cet incident met en lumière les défis éthiques et juridiques posés par le développement rapide des technologies d’intelligence artificielle et nous rappelle de rester vigilants quant à la fiabilité des sources d’information. L’évolution ultérieure de cette affaire mérite une attention continue et ses résultats auront un impact profond sur l’application de l’intelligence artificielle dans le domaine juridique.