L’ancien avocat de Trump, Michael Cohen, a récemment admis avoir cité de faux cas générés par AI dans ses documents judiciaires. Il a confondu Bard de Google avec un « super moteur de recherche » et a cité le contenu généré par l’IA sans vérification lorsqu’il utilisait Bard pour des recherches juridiques. Cohen a affirmé qu’il n’avait pas intentionnellement induit le tribunal en erreur, mais qu’il manquait de compréhension de la technologie juridique de l’IA. Cet incident n’est pas un cas isolé. Des fausses références similaires générées par l’IA sont déjà apparues dans des documents judiciaires, déclenchant une large controverse et soulignant les risques et les défis liés à l’application de la technologie de l’IA dans le domaine juridique.
L'ancien avocat de Trump, Michael Cohen, a admis dans des documents judiciaires avoir cité de faux cas générés par l'IA d'utilisation de Bard de Google pour mener des recherches juridiques tout en le traitant à tort comme un « super moteur de recherche ». Cohen a affirmé qu’il n’avait pas intentionnellement induit le tribunal en erreur et qu’il n’avait pas une compréhension suffisante de la technologie juridique de l’IA. De fausses citations similaires générées par l’IA sont déjà apparues dans des documents judiciaires, provoquant une certaine controverse.
L’incident Cohen nous rappelle une fois de plus que lors de l’application de la technologie de l’IA dans le domaine juridique, nous devons soigneusement évaluer sa fiabilité et son exactitude, et renforcer l’éthique et la supervision des outils d’IA. Le recours à la technologie de l’IA doit reposer sur une pleine compréhension de ses limites afin d’éviter les conséquences graves causées par une mauvaise utilisation. À l’avenir, la manière de mieux utiliser l’IA pour faciliter la recherche juridique tout en évitant ses risques potentiels deviendra un sujet important.