Recentemente, um caso ocorrido no Texas, nos EUA, chamou a atenção: um advogado foi punido por usar IA para gerar casos e citações falsas em documentos judiciais. O editor do Downcodes realizará uma análise aprofundada deste incidente, discutirá a aplicação e os desafios da tecnologia de IA no campo jurídico e como evitar que incidentes semelhantes aconteçam novamente. Este incidente também serve como um alerta para os profissionais do direito. Embora adotem as novas tecnologias, eles também devem aderir à ética profissional e às normas legais para garantir a precisão e a confiabilidade do trabalho jurídico.
Recentemente, num caso no Texas, um advogado foi punido por usar casos falsos gerados por inteligência artificial e citações em documentos judiciais. O incidente chamou mais uma vez a atenção para o uso de ferramentas de IA por advogados no trabalho jurídico. O caso envolveu um processo de rescisão injusta contra a Goodyear Tire & Rubber.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
A juíza distrital dos EUA, Marcia Crone, do Distrito Leste do Texas, emitiu uma decisão na segunda-feira, decidindo multar o advogado Brandon Monk em US$ 2.000 e exigir que ele participe de seminários jurídicos em IA generativa. A decisão é outro caso nos últimos anos em que advogados foram punidos por citarem alegações falsas geradas pela IA em documentos judiciais.
A Goodyear observou num processo judicial de outubro que vários dos casos citados por Monk não existiam. Em resposta, o juiz Crown pediu a Monk no início deste mês que explicasse por que ele não deveria ser punido por não cumprir as regras dos tribunais federais e locais, especificamente por não verificar o conteúdo gerado pela tecnologia.
Em um documento de 15 de novembro, Monk pediu desculpas e disse que isso se devia a um erro não intencional ao usar uma ferramenta de pesquisa jurídica de IA. Ele também reconheceu que algumas referências a informações não foram colocadas corretamente. No entanto, o juiz Crown concluiu que Monk foi responsável por não ter verificado as suas conclusões e por não ter corrigido os problemas depois de Goodyear os ter apontado.
Com o rápido desenvolvimento da IA generativa, os tribunais federais e estaduais também estão a responder ativamente a este fenómeno e emitiram ordens relevantes para regular a utilização de ferramentas de IA por advogados e juízes. Como essas IAs muitas vezes produzem informações "fictícias" ao gerar informações, isso traz riscos potenciais para o trabalho jurídico. Este incidente não reflete apenas a necessidade de os advogados serem cautelosos ao usar ferramentas de IA, mas também reflete o rápido desenvolvimento da tecnologia na indústria jurídica. Outro alerta sobre como manter o rigor profissional no contexto de
Este caso lembra-nos que, embora a tecnologia de IA possa melhorar a eficiência, a sua fiabilidade ainda precisa de ser cuidadosamente considerada. Os trabalhadores jurídicos devem reforçar a sua compreensão e aplicação das ferramentas de IA e manter sempre uma atitude profissional rigorosa para garantir a precisão e fiabilidade do trabalho jurídico. Só desta forma poderemos salvaguardar melhor a equidade e a justiça jurídica na onda de progresso científico e tecnológico.