O ex-advogado de Trump, Michael Cohen, admitiu recentemente ter citado casos falsos gerados pela IA em seus documentos judiciais. Ele confundiu o Bard do Google com um “super mecanismo de busca” e citou conteúdo gerado por IA sem verificação ao usar o Bard para pesquisas jurídicas. Cohen alegou que não enganou intencionalmente o tribunal, mas não tinha compreensão da tecnologia jurídica de IA. Este incidente não é um caso isolado. Referências falsas semelhantes geradas por IA já apareceram em documentos judiciais, desencadeando controvérsia generalizada e destacando os riscos e desafios da aplicação da tecnologia de IA no campo jurídico.
O ex-advogado de Trump, Michael Cohen, admitiu em documentos judiciais ter citado casos falsos gerados por IA de uso do Bard do Google para conduzir pesquisas jurídicas, ao mesmo tempo em que o tratava erroneamente como um “super mecanismo de busca”. Cohen alegou que não enganou intencionalmente o tribunal e não tinha conhecimento suficiente da tecnologia jurídica de IA. Citações falsas semelhantes geradas por IA já apareceram em documentos judiciais antes, causando alguma controvérsia.
O incidente de Cohen lembra-nos mais uma vez que, ao aplicar a tecnologia de IA no domínio jurídico, precisamos de avaliar cuidadosamente a sua fiabilidade e precisão, e de reforçar a ética e a supervisão das ferramentas de IA. A confiança na tecnologia de IA deve basear-se numa compreensão plena das suas limitações, para evitar consequências graves causadas pela utilização indevida. No futuro, a melhor forma de utilizar a IA para auxiliar a investigação jurídica e, ao mesmo tempo, evitar os seus riscos potenciais tornar-se-á um tema importante.