Un récent différend juridique en Colombie-Britannique, au Canada, provoqué par l'utilisation de ChatGPT pour générer de faux cas, a suscité de nombreuses inquiétudes quant à l'application de l'intelligence artificielle dans le domaine juridique. Cet incident souligne l’importance d’une utilisation prudente des outils d’intelligence artificielle dans la pratique juridique et avertit également les avocats de vérifier strictement le contenu généré par l’IA pour garantir l’exactitude et l’authenticité des informations. Cet article détaillera l'incident et ses implications.
L'avocat de la Colombie-Britannique, Chong Ke, a provoqué le chaos judiciaire après avoir cité un faux dossier généré par ChatGPT lors d'une procédure de divorce au nom du millionnaire Wei Chen. Le juge a souligné que l’intelligence artificielle générative ne peut remplacer les connaissances professionnelles des avocats et a souligné qu’il convient de faire des choix prudents lors de l’utilisation d’outils technologiques. Ke a été condamné à prendre en charge les honoraires d'avocat de la partie adverse et à examiner les documents d'autres affaires. La communauté juridique a mis en garde contre les risques liés à l’utilisation d’outils d’intelligence artificielle et a souligné que les documents soumis au tribunal doivent être exacts et véridiques.Cet incident a non seulement révélé les limites de la technologie de l’intelligence artificielle, mais a également sonné l’alarme auprès des avocats et des praticiens concernés. À l’avenir, la question de savoir comment mieux utiliser l’intelligence artificielle pour faciliter le travail juridique tout en évitant ses risques potentiels deviendra une question importante. Nous devons formuler des normes et des lignes directrices plus complètes pour garantir le développement et l’application sains de la technologie de l’intelligence artificielle dans le domaine juridique.