Recentemente, surgiu uma controvérsia de grande repercussão em um processo federal em Minnesota sobre o uso de deepfakes para influenciar eleições. Nas provas apresentadas pelo procurador-geral do estado, algumas referências a pesquisas importantes foram suspeitas de serem geradas por inteligência artificial, desencadeando uma ampla discussão sobre a aplicação da inteligência artificial no campo jurídico, e questões importantes sobre como garantir a precisão e confiabilidade de informação. O editor do Downcodes realizará uma análise detalhada deste incidente.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
De acordo com o Minnesota Reformer, o procurador-geral do estado, Keith Ellison, pediu a Jeff Hancock, diretor fundador do Stanford Social Media Lab, que fornecesse evidências relevantes. No entanto, vários dos estudos mencionados na declaração de Hancock carecem de evidências substantivas e mostram possíveis “alucinações” de IA.
A declaração de Hancock citou um estudo de 2023 publicado no Journal of Information Technology and Politics intitulado “O impacto dos vídeos deepfake nas atitudes e comportamentos políticos”.
No entanto, nenhum registro do estudo foi encontrado na revista ou em qualquer outra publicação, afirmam os relatórios. Além disso, outro estudo mencionado no depoimento intitulado “Deepfakes e a Ilusão de Autenticidade: Processos Cognitivos por Trás da Aceitação da Desinformação” também carece de base empírica.
Em resposta, os advogados da deputada Mary Franson de Minnesota e do conservador YouTuber Christopher Khols disseram no processo: “Essas citações claramente têm o efeito de recursos de ‘ilusão’ de inteligência artificial (IA), implicando que pelo menos parte do conteúdo é gerado por grandes modelos de linguagem como o ChatGPT.” Eles apontaram ainda que tal situação põe em causa a credibilidade de toda a declaração, especialmente porque muitos dos seus argumentos carecem do apoio da metodologia e da lógica analítica.
Hancock não respondeu ao incidente. Este incidente desencadeou uma discussão sobre a aplicação da inteligência artificial no campo jurídico, especialmente quando se trata de interesse público e questões eleitorais. Como garantir a precisão e a confiabilidade das informações tornou-se um tema importante.
Este incidente não só chama a atenção para o impacto da tecnologia deepfakes, mas também proporciona um novo pensamento para a comunidade jurídica ao lidar com evidências relacionadas à inteligência artificial. Como identificar e verificar efetivamente as fontes de informação tornou-se um desafio importante que precisa ser enfrentado na prática jurídica.
Este incidente expôs os riscos da aplicação da tecnologia de IA no campo jurídico e também nos alertou que precisamos ser cautelosos com o conteúdo gerado por IA, especialmente na aplicação de materiais de prova, e que são necessárias revisão e verificação rigorosas para garantir a autenticidade e confiabilidade das informações. Isto é crucial para manter a justiça e a autoridade da lei.